5月30日付米
『CNN』:「AI業界や研究者による”絶滅”リスクを警告する声明」:
AI業界リーダーや研究者、更に有名人も加わった数十名が30日、人工知能(AI)は世界が消滅するリスクとなるとし、リスク軽減を求める声明を発表した。
AI安全センター(CAIS)により発表されたこの短い声明では、AIの脅威は、「パンデミックや核戦争などの他の社会的規模のリスクと並び世界の優先事項」だとしている。...
全部読む
5月30日付米
『CNN』:「AI業界や研究者による”絶滅”リスクを警告する声明」:
AI業界リーダーや研究者、更に有名人も加わった数十名が30日、人工知能(AI)は世界が消滅するリスクとなるとし、リスク軽減を求める声明を発表した。
AI安全センター(CAIS)により発表されたこの短い声明では、AIの脅威は、「パンデミックや核戦争などの他の社会的規模のリスクと並び世界の優先事項」だとしている。
署名したのは、OpenAIのサム・アルトマンCEO、AIのゴッドファーザーことジェフリー・ヒントン(Google DeepMindとAnthropicの幹部で研究者)、ケビン・スコット(Microsoftの最高技術責任者)、ブルース・シュナイアー(暗号技術セキュリティの第一人者)、ビル・マッキベン(環境保護論者)、グライムス(ミュージシャン)他。
声明では、チェック機能の働かないAIの広範囲に及ぶ危険性を指摘。これまで専門家は、SFの世界である人工生成知能の開発はまだ遠い先だとしていた。一方、誇大広告が溢れ、AI産業への投資も高まる中、重大なミスが起きる前に、初期段階での規制を求めるに至ったと主張している。
この声明の背景には、AI技術の競争を加速させているOpenAIが開発したChatGPTがある。これに対し、多くの政治家、提唱団体、技術者等が、誤情報拡散や配置転換に繋がるAIの影響に警鐘を鳴らしている。
今日のAIシステム繁栄の一翼を担ったヒントン氏は、以前のインタビューで、「AIが我々より賢くなっていることが分かったので、警告するために研究を離れた」との趣旨を述べていた。
同日付英『BBC』:「AIが絶滅につながると専門家が警告」
「AIによる絶滅の危機を防ぐのが、他の社会規模のリスク同様に世界の最優先事項だ」との声明が発表された。一方で、この不安は大げさだとの意見もある。
この声明をウェブ上で発表したAI安全センターは、様々な壊滅的シナリオを発表している。例えば、ドラッグ発見ツールが化学兵器製造に使われる等、AIが武器となるリスク。AI生成の誤情報が、社会を不安定にし、建設的な意志決定を阻害するリスク。AIの権力が僅かな人々の手中に渡り、専制体制が監視や検閲により狭い価値観を強制するリスク。以前AIのリスクに警告を出したジェフリー・ヒルトン氏も、このセンターの警告を支持している。
存在上の脅威の可能性についてのメディア報道は2023年3月から急増した。テスラのイーロン・マスク氏を含む専門家が、「次世代AI技術の開発の一時停止を求める公開書簡」を出したためだ。書簡では、人工の知能を開発すると、「我々の数を超え、出し抜き、時代遅れにして、取って代わる」可能性が指摘されていた。
一方で、今回の場合は、非常に端的な声明であり、リスクを核戦争に例え、「議論をはじめる」ために出された書簡となっている。
AIリスクについては、英国のスナク首相は、経済と社会への利点を強調している。先週には、AI企業のCEOらとセキュリティ対策に関し会合をおこなっており、G7サミットでもAI作業部会で議論が交わされた。
閉じる