中新網(wǎng)北京3月3日電(記者 謝藝觀)“AI‘幻覺’有利于文學(xué)創(chuàng)作,但在AI安全方面,‘幻覺’確實(shí)會(huì)帶來嚴(yán)重問題?!?/p>
全國政協(xié)委員、360集團(tuán)創(chuàng)始人周鴻祎近日在北京接受中新網(wǎng)等媒體采訪時(shí)談及AI“幻覺”的兩面性。
AI“幻覺”,是指人工智能系統(tǒng)(自然語言處理模型)生成的內(nèi)容與真實(shí)數(shù)據(jù)不符,或偏離用戶指令的現(xiàn)象。
“企業(yè)內(nèi)部應(yīng)用大模型時(shí),如果該企業(yè)屬于醫(yī)療、法律、金融、證券等領(lǐng)域,或者用于生產(chǎn)制造等不容出錯(cuò)的地方,大模型一旦胡亂編造信息,就會(huì)帶來嚴(yán)重后果?!敝茗櫟t舉例。
如何防止AI出現(xiàn)“幻覺”?周鴻祎認(rèn)為,企業(yè)應(yīng)用相關(guān)技術(shù)時(shí),要連接企業(yè)專有的知識(shí)庫,去進(jìn)行校正?!盎糜X”問題,部分是能通過知識(shí)庫解決的。
但他也指出,當(dāng)大模型連接知識(shí)庫,就會(huì)帶來數(shù)據(jù)安全的問題?!爸悄荏w的安全、數(shù)據(jù)的安全、客戶端的安全,還有基座模型的安全,構(gòu)成一個(gè)新的人工智能安全新領(lǐng)域。解決方法就是‘以模制?!??!?完)