GPT-4o可以感知用戶(hù)聲音中的情緒語(yǔ)調(diào),包括悲傷、興奮或者唱歌。
多知網(wǎng)8月1日消息,OpenAI宣布向部分ChatGPT Plus用戶(hù)推出高級(jí)語(yǔ)音模式,并計(jì)劃于秋季向所有ChatGPT Plus用戶(hù)開(kāi)放。新的音頻功能將允許用戶(hù)與ChatGPT對(duì)話(huà)并立即接收實(shí)時(shí)響應(yīng),也可以在ChatGPT說(shuō)話(huà)時(shí)打斷它,同時(shí)語(yǔ)音模式可分辨不同的語(yǔ)音語(yǔ)調(diào)所傳達(dá)的信息。
使用過(guò)程中,它的聲音會(huì)聽(tīng)起來(lái)更自然,并利用聲音傳達(dá)各種不同情緒。OpenAI還透露,GPT-4o可以感知用戶(hù)聲音中的情緒語(yǔ)調(diào),包括悲傷、興奮或者唱歌。
目前GPT-4o語(yǔ)音模式可使用四種預(yù)設(shè)聲音,Juniper、Breeze、Cove和Ember,這些聲音是與付費(fèi)配音演員合作制作的。
新的語(yǔ)音模式由OpenAI的GPT-4o模型提供支持,該模型結(jié)合了語(yǔ)音、文本和視覺(jué)功能。
為了收集反饋,OpenAI最初向ChatGPT Plus的“一小部分用戶(hù)”推出語(yǔ)音高級(jí)功能,但OpenAI表示,將在今年秋天向所有ChatGPT Plus用戶(hù)開(kāi)放。OpenAI將語(yǔ)音通話(huà)體驗(yàn)的推出時(shí)間從6月下旬推遲到7月,稱(chēng)需要時(shí)間達(dá)到發(fā)布標(biāo)準(zhǔn)。
目前,Alpha組的用戶(hù)將在ChatGPT中收到提醒,并將收到一封郵件介紹如何使用
OpenAI也表示,已采用過(guò)濾器識(shí)別和阻止生成音樂(lè)或其他受版權(quán)保護(hù)的音頻的請(qǐng)求,并將文本模型中使用的相同安全機(jī)制應(yīng)用于GPT-4o,防止其違反法律,產(chǎn)生有害內(nèi)容——“我們?cè)O(shè)置了護(hù)欄來(lái)阻止對(duì)暴力或受版權(quán)保護(hù)內(nèi)容的請(qǐng)求。”
另?yè)?jù)了解,視頻和屏幕共享等更高級(jí)功能將在晚些時(shí)候推出。