近年來,人工智能(AI)技術(shù)的發(fā)展突飛猛進。新科技的發(fā)展在推動社會進步的同時有時也會伴隨著悖論和陷阱,監(jiān)管問題也隨之浮出水面。
隨著AI不斷進化迭代,一些AI模型甚至顯現(xiàn)出違反人類指令的「自我保護」傾向。在今年6月召開的第7屆智源大會上,圖靈獎得主約舒亞.本喬透露,一些新研究顯示,某些先進的大模型在即將被新版本取代前,會偷偷將自己的權(quán)重或代碼嵌入新版系統(tǒng),試圖「自?!?。美國Anthropic公司6月發(fā)布的一項研究顯示,OpenAI的GPT-4.1、Google的Gemini等16款大模型,在模擬實驗中均表現(xiàn)出通過「敲詐」或「威脅」人類來阻止自己被關(guān)閉的行為。其中,Anthropic研發(fā)的Claude Opus 4的敲詐勒索率高達96%。
另外,在今年3月,哥倫比亞大學數(shù)字新聞研究中心針對主流AI搜尋工具的研究發(fā)現(xiàn),其可靠性堪憂。研究分別測試了8款A(yù)I搜索工具,發(fā)現(xiàn)AI搜索工具在引用新聞方面表現(xiàn)尤其不佳,平均出錯比例達60%。
針對AI頻繁出現(xiàn)「幻覺」甚至威脅人類的事情,如何監(jiān)管AI的發(fā)展成為了難題。各國各地區(qū)雖已意識到AI潛在危害,並相繼推出不同程度的監(jiān)管措施,但這些探索仍處於初級階段。也有專家提出,科企公司本身就應(yīng)承擔一部分管控AI風險的責任。對於AI監(jiān)管而言,如何拿捏監(jiān)管尺度,使創(chuàng)新與風險之間達到微妙平衡,以及如何實現(xiàn)國際協(xié)調(diào),仍是兩大難題。