IEEE:生成式人工智能的下一步是什么?
近年來,隨著 ChatGPT 等多個聊天機器人進入公共領域,生成式人工智能風靡全球。聊天機器人以近乎神奇的速度生成類似人類的文本 - 以莎士比亞的風格寫十四行詩,在多種語言之間翻譯文本,編寫計算機代碼等等。
企業和 商業 專家立即看到了潛在的好處。但最近幾個月,人們對生成式人工智能的質疑日益增多。批評者表示,生成式人工智能的能力被夸大了?;糜X,也就是生成式人工智能模型可能產生的虛假陳述,降低了它的實用性,許多企業尚未找到使用這些工具的理想策略。盡管 ChatGPT 是有史以來增長最快的應用程序之一,但經常使用它的人比例仍然相當低。
在IEEE最新發布的“ 2025 年及以后技術的影響:IEEE 全球研究”中,91% 的受訪者同意“到 2025 年,隨著公眾的興趣和看法轉變為對這項技術可以和應該做什么的更深入的理解和期望,將出現生成性人工智能清算,比如在結果的準確性、深度偽造的透明度等方面。”
但調查結果并不認為生成式人工智能會遭遇持久的阻礙。絕大多數人 (91%) 也同意“到 2025 年,生成式人工智能的創新、探索和采用將繼續以閃電般的速度發展。”
那么,2025 年生成式人工智能將迎來什么?產品路線圖是什么?它們將對我們的工作和生活方式產生什么影響?
更多多模式功能
IEEE 高級會員林道莊預計,未來幾年,生成式 AI 模型將使從短文本片段生成圖像和視頻變得更加容易。文本轉圖像、文本轉視頻和語音合成將得到改進,模型將在各種輸入之間實現更好的上下文理解。
“第一步是多模式的深度融合,為消費者甚至專業內容創作者創造更復雜、更詳細、更準確、更自洽的內容。”林道莊表示。
消除準確性和偏差
對幻覺、準確性和偏見的擔憂也減緩了生成式人工智能模型的采用。當模型在有偏見的數據上進行訓練時,偏見可能會悄然出現。一些圖像生成模型可能會表現出對某一種族的人的偏好。
林道莊還表示,“模型開發者需要關注如何消除人工智能在消費者數據訓練過程中產生的偏見和道德問題,引導用戶走向更普遍、更持久的價值觀,引導模型變得更加‘善良’,這很重要?!?/p>
改進的上下文窗口
模型面臨的一個限制是它們在提示中一次可以處理的信息量。這稱為上下文窗口或上下文大小。例如,想象一下,您需要輸入一個非常長的提示(或描述)來嘗試生成圖像。在某些時候,生成式 AI 模型將無法處理整個提示。輸出將僅反映提示的一部分,從而忽略潛在的重要信息。
在另一個場景中,你可能需要與模型討論一個較長的文檔。隨著對話的進行,模型可能會忘記對話的早期部分。
改進上下文窗口將允許生成式人工智能模型處理更復雜的任務,并提高其響應的連貫性。
IEEE 研究生成員Hector Azpurua表示:“生成式人工智能所能做的事情尚未達到極限;我們還沒有達到這項技術的頂峰?!?/p>