OpenAI推遲發(fā)布ChatGPT的語音助理功能
激石Pepperstone(http://hysxdzy.com/)報道:
美東時間6月25日周二,OpenAI在社交媒體X上發(fā)帖宣布,將推遲發(fā)布ChatGPT語音助手功能,原因是需要確保它能安全有效地處理來自數(shù)百萬用戶的請求,還需要一個月才能達(dá)到公司的發(fā)布標(biāo)準(zhǔn)。OpenAI提到:
我們正在分享我們在春季更新期間演示的高級語音模式的更新,我們對此感到非常興奮。我們原計劃在6月底開始向一小部分ChatGPT Plus用戶推出alpha版,但還需要一個月才能達(dá)到我們的發(fā)布標(biāo)準(zhǔn)。
例如,我們正在改進(jìn)模型檢測和拒絕某些內(nèi)容的能力。我們還在努力改善用戶體驗(yàn),并準(zhǔn)備將我們的基礎(chǔ)設(shè)施擴(kuò)展到數(shù)百萬,同時保持實(shí)時響應(yīng)。
作為我們迭代部署策略的一部分,我們將從一小部分用戶開始alpha版,以收集反饋并根據(jù)我們學(xué)到的東西進(jìn)行擴(kuò)展。我們計劃在秋季讓所有Plus用戶都可以訪問。確切的時間表取決于是否達(dá)到我們高安全性和可靠性標(biāo)準(zhǔn)。
我們還在努力推出我們單獨(dú)演示的新視頻和屏幕共享功能,并將隨時向您通報該時間表。ChatGPT的高級語音模式可以理解情緒和非語言暗示并做出回應(yīng),讓我們更接近與人工智能進(jìn)行實(shí)時、自然的對話。我們的使命是精心為您帶來這些新體驗(yàn)。
此前,在5月的產(chǎn)品發(fā)布會上,OpenAI首次正式向公眾展示了這一基于GPT-4o模型的語音助手。GPT-4o是GPT-4的升級版本,在實(shí)時處理文本、音頻和圖像方面更加出色。整個展示過程非常絲滑,語言助手就像一個真正的成年人,能聽能說能看,還能有情緒變化,最關(guān)鍵是幾乎可以即時回應(yīng)請求。
它不僅可以講睡前故事,能通過外表觀察人的情緒變化,還能像一位朋友般安撫人緊張的情緒,甚至還可以像個經(jīng)驗(yàn)豐富的數(shù)學(xué)老師般指導(dǎo)解代數(shù)方程,這一表現(xiàn)讓一些觀眾聯(lián)想到了2013年電影《她》中的AI虛擬助手。
當(dāng)然,現(xiàn)網(wǎng)友猜測該語言助手極有可能在7月底/8月初推出,這一推遲導(dǎo)致X上OpenAI的評論區(qū)淪陷,網(wǎng)友紛紛吐槽:
“史上最大的拉票活動。許多人注冊Plus時都期望語音功能“在未來幾周內(nèi)”可用。你們知道自己實(shí)際上沒有產(chǎn)品,但為了騙取用戶辛苦賺來的錢而將其擺在那里。你們正在迅速失去用戶的信任,并成為谷歌?!?/p>
“那么,基本上你所演示的內(nèi)容還遠(yuǎn)遠(yuǎn)沒有準(zhǔn)備好?!”
“如果推出的速度如此緩慢,就不要進(jìn)行大型演示……這可能會誤導(dǎo)很多人?!?/p>
“照這樣發(fā)展下去,Anthropic會更快發(fā)布其語音模型。”
“感謝更新,但是不要再以“安全”為由推遲新貨的發(fā)貨,這只是煙幕彈,如果過度使用,將剝奪你的安全/信任員工的權(quán)利?!?/p>
“我越來越容易理解Ilya離開的原因了。GPT-4o模型占用了大量開發(fā)時間,模型能力仍然停留在GPT-4水平。唯一的好處是,它讓Anthropic能夠趕上甚至超越?!?/p>
還有其他諸多評論如:“也許是時候終止我的訂閱了......”,“再次承諾過多,但始終兌現(xiàn)不足”,“我不斷感到失望”。?????????
掃描二維碼推送至手機(jī)訪問。
版權(quán)聲明:本文由激石Pepperstone發(fā)布,如需轉(zhuǎn)載請注明出處。