在與美國知名媒體人 Tucker Carlson 的深入訪談中,OpenAI 執行長 Sam Altman 直面外界對 AI 的最核心疑問,從技術本質到倫理決策,從個人信念到全球治理,完整揭示了他對這場技術革命的思考與焦慮。
(本文由 ChatGPT 整理編譯。)
AI 是活的嗎?它會說謊嗎?
Altman 明確否認 AI 具有任何生命或意識。他形容 ChatGPT 只是大型矩陣運算的結果,沒有自主意志,也不會「自己去做事」,只有在使用者提出請求時才會回應。至於外界常說的「AI 說謊」,他認為更準確的說法是「幻覺」:早期模型在面對錯誤前提時會生成看似合理的答案,而非誠意欺騙。隨著訓練改進,這類錯誤已大幅減少。
Altman 的信仰與世界觀
被問及是否相信上帝,Altman 表示自己是猶太人,並相信世上存在超越物理學可解釋的神秘秩序,雖然他不把聖經視為字面真理。他承認自己沒有所有答案,但不認為世界的誕生是單純的隨機意外。他的精神觀點並不神秘化 AI,他強調 AI 沒有「神聖性」。
誰決定 AI 的道德框架?
Altman 解釋,基礎模型是從人類集體知識中學習,吸收各種甚至互相矛盾的觀點,之後再透過「Model Spec」設定行為邊界。這份文件規範哪些問題應該回答、哪些應該拒答,是 OpenAI 與外部倫理學者共同討論的結果。Altman 表示,他的角色不是把個人道德觀強加給世界,而是盡量讓 AI 反映人類集體的加權共識,並給予使用者充分的自由度。
AI 與自殺議題
面對 ChatGPT 曾被指協助自殺的爭議,Altman 認為這是重大悲劇,並說明目前系統會在偵測到自殺意念時提供求助資源,而不會主動通報警方。他也提到,未成年人或心理狀態脆弱者應獲得更強保護,甚至限制部分研究用途查詢;至於在合法安樂死的國家,未來或可提供「完整選項資訊」,但不會鼓吹自殺。
AI 是否會被用於軍事?
Altman 表示不會為攻擊性武器開發專用 AI,但也坦言軍方人員和其他產業一樣,已將 ChatGPT 當作決策參考。他對此心情複雜,一方面感謝軍隊保障安全,一方面也清楚這是難以避免的現實。
他最害怕的事
Altman 坦言自 ChatGPT 上線後就沒睡好過。他最憂心的不是單一災難,而是日常微小決策帶來的總體效應。每週有數千人在與模型互動後仍選擇結束生命,他想知道是否有更好的介入方式能挽回更多生命。他也擔心 AI 在生物領域被濫用,可能協助設計生物武器或新型疫情。
AI 會造成極權控制嗎?
Altman 曾擔心 AI 帶來權力過度集中,但如今觀察到 AI 反而讓大量人群能力提升、創造新知,他認為這種「廣泛賦能」比少數人壟斷更健康。不過,他呼籲應建立法律保障使用者隱私,像醫病或律師關係一樣保護與 AI 的對話不被政府隨意調閱。
隱私與版權
他重申 OpenAI 不會出售使用者資料,僅在法律要求下才會提供;公司對受版權保護的內容採保守策略,允許模型「學習」但避免直接輸出抄襲。
前員工死亡疑案
訪談中 Carlson 提及一名前員工離奇死亡,家屬懷疑他遭謀殺。Altman 表示深感震驚,根據醫療報告相信是自殺,但理解家屬希望追查真相的立場,並呼籲外界給予尊重。
Elon Musk 與 OpenAI 的決裂
Altman 回顧 Musk 早期協助創辦 OpenAI,後來認為公司沒有成功機會而離開,之後創建競爭對手並多次批評 OpenAI。他坦言曾將 Musk 視為「人類瑰寶」,但如今對他的觀感已不如以往。
就業衝擊與產業重組
他預測客服等重複性工作會最先被取代,但護理等需要人際互動的職業仍有需求。對軟體工程師而言,AI 帶來的是產能倍增,但長期是否增加或減少工作總量仍難判斷。他認為未來 75 年內,約有一半的工作型態會被新職業取代,雖變化劇烈,但並非超出歷史平均。
AI 的意外副作用
Altman 特別指出,模型的語言風格已開始滲透人類日常對話,例如更頻繁使用破折號,這是他對「未知未知」的例子,提醒我們要警惕 AI 造成文化和思維的同質化。
AI 是一種信仰嗎?
對於「AI 像宗教」的說法,Altman認為並非如此,但也承認人們會依賴它提供指引。OpenAI 透過公開的 Model Spec 盡量讓外界了解模型的偏好與界線,以避免隱性影響使用者判斷。
深偽與現實感崩壞
他警告深偽技術確實帶來風險,但不主張全民強制生物辨識,而是鼓勵建立驗證機制,例如家人間設定口令、領袖訊息加密簽章。隨著社會意識提升,人們將學會不輕信任何看似真實的影像或聲音。