近日,人工智能(AI)開發公司OpenAI宮鬥,據指與內部一項AI項目有重大突破,恐怕威脅人類有關。外媒最新引述以太幣創辦人Vitalik Buterin的撰文中也警告,AI確實存在風險,結果可能導致人類徹底滅絕。
他承認,這是一種極端的說法,儘管氣候變遷、人為流行病或核戰等最壞情況可能會造成巨大的危害,但仍有許多文明島嶼會完好無損,可以收拾殘局。然而,他認為一旦超級人工智能選擇與人類為敵,結果可能是人類的徹底滅絕,即使人類逃走到火星,也可能不安全。
他引述AI Impacts2022年的一項調查顯示,5至10%的參與者認為,人類將因AI或人類無法控制AI而面臨滅絕。