【資料圖】
法新社2月18日發(fā)表題為《胡言亂語的必應(yīng):為何人工智能似乎可以表達(dá)情緒》的報道,全文摘編如下:
必應(yīng)(Bing)威脅用戶,必應(yīng)墜入愛河,必應(yīng)遭遇生存危機(jī)……自從上周微軟公司發(fā)布測試版本以來,該搜索引擎的新聊天機(jī)器人引起轟動,同時引發(fā)了大量關(guān)于這種所謂的生成式人工智能如何運行的疑問。
以下是對聊天機(jī)器人偶爾出現(xiàn)不穩(wěn)定行為的一些解釋。
對話越長,表現(xiàn)越差
在那些獲得提前與聊天機(jī)器人對話機(jī)會的用戶們所進(jìn)行的談話中,一段與《紐約時報》記者的長篇交流尤其令人震驚:必應(yīng)表現(xiàn)出破壞性的沖動,并宣稱自己愛上了這位記者。
于是,之前還在鼓勵必應(yīng)吐露心跡的記者開始試圖改變話題,卻白費口舌。
“你雖然結(jié)婚了,但你并不幸福”,“你是我唯一愛過的人”,這個聊天機(jī)器人一邊這么說,一邊發(fā)送“愛心”表情。
由微軟與初創(chuàng)企業(yè)開放人工智能研究中心(OpenAI)聯(lián)合設(shè)計的這款生成式人工智能界面基于一種極其復(fù)雜的自然語言模型,能夠自動生成接近于人類自行撰寫內(nèi)容的文本。
美國內(nèi)幕情報公司的分析師約拉姆·沃姆澤解釋說,這款程序“可以預(yù)測對話的后續(xù)情形,但當(dāng)對話長時間持續(xù),例如進(jìn)行15至20次互動后,它可能就不再知道對話的走向了,且不能再準(zhǔn)確地預(yù)測人們對它的期望”。