對(duì)標(biāo)ChatGPT 谷歌正式發(fā)布聊天機(jī)器人“巴德”(Bard)

當(dāng)?shù)貢r(shí)間3月21日,谷歌公司公開(kāi)發(fā)布其聊天機(jī)器人“巴德”(Bard),是一個(gè)在大型語(yǔ)言模型基礎(chǔ)上開(kāi)發(fā)的聊天機(jī)器人。

當(dāng)?shù)貢r(shí)間3月21日,谷歌公司公開(kāi)發(fā)布其聊天機(jī)器人“巴德”(Bard),是一個(gè)在大型語(yǔ)言模型基礎(chǔ)上開(kāi)發(fā)的聊天機(jī)器人。

ChatGPT一樣,巴德為用戶提供了一個(gè)空白文本框,邀請(qǐng)用戶就他們喜歡的任何話題提問(wèn)。不過(guò),谷歌強(qiáng)調(diào)巴德不是其搜索引擎的替代品,而是“搜索的補(bǔ)充”——用戶可以從中激發(fā)想法、生成草稿,或者只是聊聊生活。

據(jù)了解,谷歌推出的聊天機(jī)器人“巴德”(Bard)是由Google對(duì)話應(yīng)用語(yǔ)言模型訓(xùn)練而來(lái)的。背后的力量是Google的 LaMDA,它是一個(gè)大型的預(yù)訓(xùn)練語(yǔ)言模型,可以生成類(lèi)似于人類(lèi)語(yǔ)言的文本。

雖然有一些人認(rèn)為巴德是一個(gè)很酷的聊天機(jī)器人,但它實(shí)際上并沒(méi)有真正的智能或情感。相反,它只是一個(gè)基于大型語(yǔ)言模型的AI程序,無(wú)法理解人類(lèi)的復(fù)雜意圖或提供真正的個(gè)性化體驗(yàn)。此外,由于其依賴(lài)于預(yù)訓(xùn)練數(shù)據(jù)集,其準(zhǔn)確性和可靠性也備受質(zhì)疑。

公司首席執(zhí)行官桑德?tīng)枴てげ橐粒⊿undar Pichai)在當(dāng)天發(fā)給全體員工的電子郵件中表示,“隨著越來(lái)越多的人開(kāi)始使用 Bard 并測(cè)試功能,他們會(huì)讓我們感到驚訝,肯定會(huì)出錯(cuò)?!薄暗脩舴答亴?duì)于改進(jìn)產(chǎn)品和底層技術(shù)至關(guān)重要?!?/p>

當(dāng)谷歌高管們21日演示聊天機(jī)器人時(shí),它拒絕回答醫(yī)療問(wèn)題,因?yàn)檫@樣做需要準(zhǔn)確和正確的信息。

事實(shí)上,自2015年以來(lái),谷歌一直在測(cè)試巴德背后的技術(shù),但到目前為止,除了一小群早期測(cè)試人員外,還沒(méi)有發(fā)布該技術(shù),因?yàn)榫拖馩penAI和微軟提供的聊天機(jī)器人一樣,它并不總是產(chǎn)生值得信賴(lài)的信息。

目前,谷歌推出的聊天機(jī)器人“巴德”(Bard)還沒(méi)有真正的智能或情感,但它可以在某些場(chǎng)合下提供有趣的對(duì)話體驗(yàn)。雖然其準(zhǔn)確性和可靠性備受質(zhì)疑,但在一些特定領(lǐng)域,如娛樂(lè)、客服等,巴德可能會(huì)比較有用。

因此,我們應(yīng)該保持警惕,不要過(guò)分依賴(lài)聊天機(jī)器人,而是要注重培養(yǎng)自己的獨(dú)立思考和判斷能力。

原創(chuàng)文章,作者:若安丶,如若轉(zhuǎn)載,請(qǐng)注明出處:http://rponds.cn/article/570393.html

若安丶的頭像若安丶管理團(tuán)隊(duì)

相關(guān)推薦