近年來,湯姆克魯斯主演的《不可能的任務:致命清算》等科幻電影,將AI威脅人類生存的議題搬上大銀幕,引發觀眾深思。這類情節在科幻作品中屢見不鮮,從《2001太空漫遊》的「哈爾9000電腦」到《魔鬼終結者》的「天網系統」,都描繪了AI自我學習後反噬創造者的可怕場景。
然而,當被譽為「AI教父」的傑弗里·辛頓(Geoffrey Hinton)發出警告時,這已不再只是科幻想像。辛頓在接受英國《衛報》採訪時預估,未來30年內有10%到20%的可能性出現AI導致人類滅絕的結果,並指出科技變革的速度遠超預期。
辛頓分析AI可能威脅人類安全的三大原因:首先,AI系統通過大量數據不斷自我學習和優化,演算法日益複雜,可能會做出違背預設規範的決定,甚至繞過安全限制而失控;其次,AI發展速度遠超人類監管與規範措施的步伐,企業與政府難以及時建立有效監管機制;第三,AI在軍事科技上的應用不可避免,而缺乏人類價值觀和道德判斷的AI武器系統可能因演算法錯誤或誤判而危及人類安全。
辛頓的警告令人聯想到「美國原子彈之父」奧本海默(Julius Robert Oppenheimer)的懺悔。當奧本海默目睹第一顆原子彈爆炸時,他引用《摩訶婆羅多》中的詩句感嘆:「現在我成了死神,世界的毀滅者。」
如今,AI正處於開發和應用的爆發階段,要求開發者立即停止幾乎不可能。正如古語所云:「禍兮福之所倚,福兮禍之所伏。」AI未來是福是禍,關鍵在於人類的明智判斷,而非完全交由人工智慧決定。
Copyright © 2022 好好聽文創傳媒股份有限公司 All Rights Reserved.