<td id="4ea3t"><ruby id="4ea3t"></ruby></td>
  • <track id="4ea3t"><strike id="4ea3t"></strike></track>
    <p id="4ea3t"></p>
    <table id="4ea3t"><option id="4ea3t"></option></table>
  • 當前位置: 首頁 > 能源互聯網 > 產經信息

    OpenAI發布人工智能新模型 稱其“會聽會看會說”,能讀取人的情緒

    央視新聞客戶端發布時間:2024-05-15 10:46:46

      央視新聞客戶端報道 北京時間14日凌晨,OpenAI公司在美國加州舉辦新品發布會,推出一款名為GPT-4o(歐)的人工智能模型。公司表示,新模型具備“聽、看、說”的出色本領。發布會上,OpenAI公司展示了新模型的多個應用場景。

      據介紹,GPT-4o(歐)的“o”源自拉丁語,意思是“全能”(字幕:omni,全能),新模型能夠處理50種不同的語言,提高了速度和質量,并能夠讀取人的情緒。

      新模型可以在最短232毫秒對音頻輸入做出反應,與人類在對話中的反應時間相近。即使對話被打斷,新模型也可以做出自然反應。這是此前人工智能語音聊天機器人做不到的。

      圖像輸入方面,研究人員啟動攝像頭,要求實時完成一道方程題,新模型輕松完成了任務;研究人員還展示了它對一張氣溫圖表進行實時解讀的能力。

      OpenAI公司研究人員 巴雷特:ChatGPT,我正在和你分享這張圖表。你能否用非常簡短的一句話概括你所看到的?

      人工智能模型GPT-4o:這張圖表顯示了2018年全年的平均、最低和最高溫度。一個明顯的注釋顯示,9月下旬曾下過一場大雨。




    評論

    用戶名:   匿名發表  
    密碼:  
    驗證碼:
    最新評論0
    人人超碰人人爱超碰国产|秘书高跟黑色丝袜国产91在线|国内少妇偷人精品免费|9久久无色码中文字幕

    <td id="4ea3t"><ruby id="4ea3t"></ruby></td>
  • <track id="4ea3t"><strike id="4ea3t"></strike></track>
    <p id="4ea3t"></p>
    <table id="4ea3t"><option id="4ea3t"></option></table>