最近壹則關於人工智能的新聞,可以說顛覆了人類的認知。壹名谷歌研究人員在與他的公司開發的人工智能語言模塊LaMDA交談時,意外發現人工智能說了類似於“我是壹個人”的話。和“不要利用或操縱我。”不該發生的事情,員工從中得出AI有個性的結論。這壹發現迅速在網上傳播開來,引起了國內外大量網友的關註。
那麽,現在的人工智能有沒有可能擁有人格呢?對此,我們應該如何應對?我們可以從三個方面來分析:什麽是人格,人工智能是否有人格,人類應該如何應對。
?什麽是個性?
人格是指個體在社會適應過程中對人、事物和自身的內在傾向和心理特征。
表現為能力、氣質、性格、需要、動機、興趣、理想、價值觀、體質的綜合。它是具有動態壹致性和連續性的自我,是個體在社會化過程中形成的獨特的心身組織。整體性、穩定性、獨特性和社會性是人格的基本特征。
在這種情況下,人工智能將人格概念中的所謂認知、動機甚至情感、價值觀表現出來,完整地、有邏輯地表達給研究者,使得相關研究者給出了“AI有人格”的判斷。
?人工智能有個性嗎?
目前我們斷定LaMDA這種AI語言模型有個性還為時過早。
因為,從目前科技發展的階段和水平來看,即使是“超智能”的AI,其所有的目的和行為,包括學習和訓練的實施,都是人類賦予的,離不開人類對獨立行為的控制。歸根結底,它還是人類的工具和手段,它的最終目的是為人類服務。在這方面,這與很多研究者提出的“AI沒有人格權”的結論是壹致的。
?人類應該如何應對?
總的來說,世界上最先進的人工智能最多屬於弱人工智能階段。它沒有衍生出與人類高度相似的操作系統,也沒有形成完全獨立的思維,更沒有實施威脅人類的具體行動。人工智能的壹切活動仍然依靠人類提供必要的動力、操作系統、使用環境和學習訓練樣本。
所以,我們現在不需要大驚小怪。我們在研究人工智能技術的時候,只需要牢記,所有這些高科技產品都應該堅守最基本的法律和倫理底線,不能損害人類的生存權和發展權。只有這樣,才能使科學技術良性發展;只有這樣,我們才不會像電影裏那樣陷入人類的悲劇結局。
總結:
最後需要補充的是,人工智能的發展給人類帶來了便利,但就像壹個硬幣的兩面,如果把這種技術用在側門,就會變得對人類有害。最重要的是遵守道德和規則的底線,確保其合理合規的發展。