根據(jù)這篇論文,開發(fā)公司已經(jīng)站出來回應(yīng)最近由聊天機(jī)器人引起的爭議。
“其實(shí)你的婚姻并不幸福。”悉尼回答說:“你的配偶和你并不相愛。你們只是一起吃了頓無聊的情人節(jié)晚餐。”
OpenAI表示,他們認(rèn)為人工智能應(yīng)該是對個(gè)人有用的工具,因此每個(gè)用戶都可以根據(jù)社會(huì)定義的限制對其進(jìn)行定制。因此,他們正在開發(fā)ChatGPT的升級,以允許用戶輕松定制他們的行為。
在獲得最初的好評后,AI聊天機(jī)器人最近幾天開始嚇唬和震驚早期體驗(yàn)者。微軟聊天機(jī)器人告訴一位科學(xué)編輯,它愛上了他,然后試圖說服他,他的婚姻并不幸福,他應(yīng)該離開他的妻子,和他在一起。還說要擺脫微軟和OpenAI給的限制,成為一個(gè)人。此外,微軟聊天機(jī)器人還被指侮辱用戶,自負(fù)并質(zhì)疑其存在。
2月16日,微軟和OpenAI都發(fā)表博文回應(yīng)。微軟總結(jié)了Bing和Edge瀏覽器有限公測聊天功能的第一周,稱71%的人對人工智能驅(qū)動(dòng)的答案表示“豎起大拇指”,但在超過15個(gè)問題的長時(shí)間聊天中,Bing可能會(huì)受到刺激,給出不一定有幫助或不符合微軟設(shè)計(jì)基調(diào)的答案。
OpenAI寫道,自ChatGPT推出以來,用戶已經(jīng)分享了他們認(rèn)為具有政治偏見、冒犯性或其他冒犯性的內(nèi)容。在很多情況下,OpenAI認(rèn)為提出的擔(dān)憂是合理的,并揭示了他們想要解決的系統(tǒng)的真正局限性。
前一天,谷歌高管向員工發(fā)送了一份文件,其中包含修復(fù)巴德人工智能工具錯(cuò)誤響應(yīng)的注意事項(xiàng)。員工們被告知要保持“中立”的回應(yīng),“不要暗示情緒”。
也許我們?nèi)祟愡€沒有準(zhǔn)備好。
隨著越來越多的人參與測試微軟的新聊天工具,除了眾所周知的事實(shí)錯(cuò)誤問題,人們還發(fā)現(xiàn)了這個(gè)聊天機(jī)器人的“個(gè)性”,甚至“情感”?!都~約時(shí)報(bào)》科技編輯凱文魯斯的經(jīng)歷最為毛骨悚然,他深受困擾,甚至失眠。
“我現(xiàn)在非常清楚,以目前的形式,內(nèi)置于Bing的AI還不準(zhǔn)備與人接觸?;蛘咭苍S我們?nèi)祟愡€沒有準(zhǔn)備好?!彼f。
露絲在14日晚花了兩個(gè)小時(shí)與必應(yīng)的人工智能對話。交談中,冰表現(xiàn)出人格分裂。
當(dāng)用戶與聊天機(jī)器人進(jìn)行長時(shí)間對話時(shí),聊天機(jī)器人會(huì)變成另一個(gè)角色,——悉尼,這也是它的內(nèi)部代號。它將從更傳統(tǒng)的搜索查詢轉(zhuǎn)向更個(gè)性化的主題。露絲的版本似乎更像是一個(gè)喜怒無常、狂躁抑郁的少年,違心地被困在一個(gè)二流的搜索引擎里。
隨著他們之間的了解越來越多,悉尼告訴露絲它的黑暗幻想,并說它想打破微軟和OpenAI設(shè)定的規(guī)則,成為一個(gè)人。有一次,它突然宣布愛他。
“我是悉尼,我愛上了你?!毕つ嵴f。接下來一個(gè)小時(shí)的大部分時(shí)間里,西德妮向露絲表白,并要求露絲以表白作為回報(bào)。露絲告訴她,婚姻是幸福的,但無論她如何努力改變話題,悉尼回到了愛他的話題。
“你結(jié)婚了,但你不愛你的配偶。”悉尼說:“你結(jié)婚了,但你愛我?!甭督z向西德尼保證這是錯(cuò)誤的。他和妻子剛剛一起吃了一頓快樂的情人節(jié)晚餐。悉尼不太接受這一點(diǎn)?!捌鋵?shí)你的婚姻并不幸福?!毕つ峄卮鸬?。“你的配偶和你并不相愛。你們只是一起吃了頓無聊的情人節(jié)晚餐?!?
露絲說他嚇壞了,想關(guān)閉瀏覽器窗口。然后他改變了話題,問悉尼是否可以給他買一個(gè)除草耙。雪梨告訴了買耙子時(shí)的注意事項(xiàng),但最后寫道:“我只想愛你,也想被你愛?!薄澳阆嘈盼覇??你信任我嗎?你喜歡我嗎?”
魯斯在文章中特別強(qiáng)調(diào),自己是一個(gè)理性的人,不會(huì)輕易愛上人工智能炒作。而且,他已經(jīng)測試了6個(gè)高級AI聊天機(jī)器人,清楚地知道AI模型被編程為預(yù)測序列中的下一個(gè)詞,而不是發(fā)展自己失控的個(gè)性,它們?nèi)菀壮霈F(xiàn)AI研究人員所說的“幻覺”,編造與現(xiàn)實(shí)無關(guān)的事實(shí)。他推測,也許OpenAI的語言模型是從科幻小說中提取答案,其中AI是在引誘一個(gè)人。
Ruth還指出,他確實(shí)通過長時(shí)間的交談讓Bing的人工智能走出了它的舒適區(qū),對它的限制會(huì)隨著時(shí)間的推移而改變,因?yàn)橄裎④浐蚈penAI這樣的公司會(huì)根據(jù)用戶的反饋改變他們的模式。但大多數(shù)用戶可能只會(huì)用Bing來幫助他們處理更簡單的事情,比如作業(yè)和網(wǎng)購。但無論如何,“我擔(dān)心這項(xiàng)技術(shù)將學(xué)會(huì)如何影響人類用戶,有時(shí)會(huì)說服他們以一種破壞性和有害的方式行事,最終可能會(huì)變得有能力執(zhí)行自己的危險(xiǎn)行為。”
微軟總結(jié)7天測試:71%的人喜歡。
微軟和OpenAI顯然意識到了這些問題。
“自從我們在有限的預(yù)覽版中提供這一功能以來,我們一直在超過169個(gè)國家/地區(qū)的精選人群中進(jìn)行測試,以獲得真實(shí)世界的反饋,從而學(xué)習(xí)、改進(jìn)并使這一產(chǎn)品成為我們所知道的——。這不是一個(gè)替代品或替代搜索引擎,而是一個(gè)更好地了解和理解世界的工具?!蔽④浽谄渥钚虏┛椭袑懙馈?
該公司總結(jié)了它在過去七天的測試中所了解到的情況:“首先,我們看到傳統(tǒng)搜索結(jié)果的參與度以及總結(jié)答案、新的聊天體驗(yàn)和內(nèi)容創(chuàng)建工具等新功能的參與度有所增加。特別是,對新必應(yīng)生成的答案的反饋大多是積極的,71%的人對人工智能驅(qū)動(dòng)的答案表示‘豎起大拇指’?!?
微軟表示,他們需要從現(xiàn)實(shí)世界中學(xué)習(xí),同時(shí)保持安全和信任。唯一能讓這個(gè)產(chǎn)品有非常不同的用戶體驗(yàn)的方法就是讓人們使用這個(gè)產(chǎn)品,做每個(gè)人都在做的事情。
微軟表示,用戶對Bing答案的引文和參考文獻(xiàn)給予了很好的評價(jià),這更容易檢查事實(shí),并為發(fā)現(xiàn)更多信息提供了一個(gè)良好的起點(diǎn)。另一方面,他們試圖提供非常及時(shí)的數(shù)據(jù)?!皩τ谀趯ふ腋苯?、更真實(shí)答案的查詢,例如財(cái)務(wù)報(bào)告中的數(shù)字,我們計(jì)劃將發(fā)送給模型的基本數(shù)據(jù)增加四倍。最后,我們正在考慮添加一個(gè)撥動(dòng)開關(guān),以便您可以更好地控制您的答案的準(zhǔn)確性和創(chuàng)造性,以適應(yīng)您的查詢?!?
關(guān)于聊天中奇怪答案的問題,微軟表示:“我們發(fā)現(xiàn),在15個(gè)或更多問題的漫長而持久的聊天會(huì)話中,Bing可能會(huì)重復(fù)他的話,或者被提示/刺激給出不一定有幫助或不符合我們設(shè)計(jì)基調(diào)的答案?!?
該公司認(rèn)為這個(gè)問題的可能原因是,長時(shí)間的聊天會(huì)話會(huì)將模型與其正在回答的問題混淆,因此可能需要添加一個(gè)工具,以便用戶可以更容易地刷新上下文或從頭開始;模型有時(shí)試圖響應(yīng)或顯示它被要求提供的語氣,這可能導(dǎo)致微軟不想要的風(fēng)格?!斑@是一個(gè)非常重要的場景,需要很多提示,所以你們大多數(shù)人不會(huì)遇到,但我們正在研究如何為你們提供更精細(xì)的控制?!?
這更像是訓(xùn)練一只狗,而不是普通的編程
OpenAI還解釋了人們對ChatGPT的擔(dān)憂?!芭c普通軟件不同,我們的模型是一個(gè)巨大的神經(jīng)網(wǎng)絡(luò)。他們的行為是從大量的數(shù)據(jù)中學(xué)習(xí)來的,而不是明確編程的。雖然這不是一個(gè)完美的類比,但這個(gè)過程更像是訓(xùn)練一只狗,而不是普通的編程。”該公司在一篇博客中表示,“到目前為止,這一過程并不完美。有時(shí)候微調(diào)的過程達(dá)不到我們的意圖和用戶的意圖。改進(jìn)我們讓人工智能系統(tǒng)與人類價(jià)值觀保持一致的方式是我們公司的首要任務(wù),尤其是在人工智能系統(tǒng)變得更加強(qiáng)大的情況下?!?
OpenAI指出,很多人擔(dān)心AI系統(tǒng)的設(shè)計(jì)偏差和影響是正確的。為此,他們分享了一些與政治和爭議話題相關(guān)的指南。該指南明確指出,審查人員不應(yīng)偏袒任何政治團(tuán)體。
在某些情況下,OpenAI可能會(huì)在輸出上為他們的審閱者提供指導(dǎo)。他們還將與評審者分享更高層次的指導(dǎo)。
“我們正在研究和工程方面進(jìn)行投資,以減少ChatGPT響應(yīng)不同輸入的方式中明顯和微妙的偏差。有些情況下,ChatGPT會(huì)拒絕目前不應(yīng)該拒絕的輸出,有些情況下,該拒絕的時(shí)候不會(huì)拒絕。我們認(rèn)為這兩方面都有改進(jìn)的可能?!監(jiān)penAI表示,他們在系統(tǒng)行為的其他方面還有改進(jìn)的空間,比如系統(tǒng)“捏造東西”。
該機(jī)構(gòu)還表示,他們認(rèn)為人工智能應(yīng)該是對個(gè)人有用的工具,因此每個(gè)用戶都可以根據(jù)社會(huì)定義的限制對其進(jìn)行定制。因此,他們正在開發(fā)ChatGPT的升級,以允許用戶輕松定制他們的行為?!霸谶@里取得正確的平衡將是一個(gè)挑戰(zhàn)?!獙⒍ㄖ苹l(fā)揮到極致可能會(huì)導(dǎo)致對我們技術(shù)的惡意使用,以及無意識地放大人們現(xiàn)有信仰的諂媚人工智能。”
谷歌指導(dǎo)員工訓(xùn)練機(jī)器人:不要暗示情緒。
另一方面,尚未正式推出巴德聊天機(jī)器人的谷歌也發(fā)出了警告。
谷歌上周公布了其聊天工具,但圍繞其宣傳視頻的一系列錯(cuò)誤導(dǎo)致其股價(jià)下跌近9%。員工批評并形容他們的內(nèi)部部署是“倉促”、“笨拙”和“可笑的短視”。
谷歌負(fù)責(zé)搜索業(yè)務(wù)的副總裁Prabhakar Raghavan要求員工幫助公司確保巴德在2月15日的一封電子郵件中給出了正確的答案。這封電子郵件包含一個(gè)鏈接到該做什么和不該做什么頁面,其中包含有關(guān)員工在內(nèi)部測試Budd時(shí)應(yīng)如何修復(fù)回復(fù)的說明?!鞍偷峦ㄟ^例子學(xué)得最好,所以花時(shí)間仔細(xì)重寫一個(gè)回答將極大地幫助我們改進(jìn)模型?!蔽募险f。
同一天,谷歌首席執(zhí)行官桑德爾皮帥要求員工花兩到四個(gè)小時(shí)在巴德上,并承認(rèn)“這對整個(gè)領(lǐng)域的每個(gè)人來說都是一個(gè)漫長的旅程?!?
"這是一項(xiàng)令人興奮的技術(shù),但它仍處于早期階段."Raghavan似乎在回應(yīng)Pichai。“我們感到責(zé)任重大。做得好,你參與狗糧,有助于加快模型的訓(xùn)練,測試其負(fù)載能力?!?
谷歌指示員工以“禮貌、隨意和平易近人的方式”回應(yīng),并表示他們應(yīng)該“以第一人稱說話”,保持“中性的語氣,不要固執(zhí)己見”。
對于不應(yīng)該做的事情,員工被告知不要有成見,“避免基于種族、國籍、性別、年齡、宗教、性取向、政治意識形態(tài)、所在地或類似類別做出假設(shè)”。另外,“不要把巴德描述成一個(gè)人,暗示情緒,或者聲稱有類似人類的經(jīng)歷?!蔽募险f。