【Globali】
人工知能(AI)発展のリスク(2018/02/21)
人工知能(AI)が急速に発展する中、その技術が自動化されたサイバー攻撃や自動運転車の故意の事故などに悪用されるリスクが高まっていると警告する専門家による報告書が公表された。AIの活用で良い面も沢山ある一方、それが悪用されることで電子的、物理的、政治的な脅威をもたらすと指摘している。ドローンが武器として使用されたり、自動化による低コストなハッキングの危険、世論操作や独裁政権に利用されるなど様々な危険が考えられるという。これらのリスクについては政府と専門家の協力と対策が必要だがまだ十分な議論が成されていないのが現状である。
2月21日付
『ロイター通信』は「人工知能がハッカーに悪用される危険を研究者が指摘」との見出しで以下のように報道している。
急速に人工知能技術が発展する中、その技術が自動化されたハッキングや自動運転車の故意の事故や商業用ドローンを武器に利用するなど、悪用される危険が指摘されている。
先週発表された、ケンブリッジ・オックスフォード・エール大学の25人の技術者と公共政策研究員による論文では、悪意ある国や犯罪者に利用される恐れがあると指摘。...
全部読む
2月21日付
『ロイター通信』は「人工知能がハッカーに悪用される危険を研究者が指摘」との見出しで以下のように報道している。
急速に人工知能技術が発展する中、その技術が自動化されたハッキングや自動運転車の故意の事故や商業用ドローンを武器に利用するなど、悪用される危険が指摘されている。
先週発表された、ケンブリッジ・オックスフォード・エール大学の25人の技術者と公共政策研究員による論文では、悪意ある国や犯罪者に利用される恐れがあると指摘。電子的、物理的、政治的脅威が今後5年以内で可能性が増すという。AIは意思決定やテキストや音声、画像の理解などのタスクを行うために、コンピュータを駆使する。技術の大幅なオートメーション化で労働者の失業や社会的つながりの希薄につながる懸念もある。これまでなら手間や専門知識が必要だった攻撃にかかる費用が安く済み、サイバー攻撃などが安価に済む。
論文では、AIがオンライン上で第三者を真似ることができる合成画像やテキスト、音声などの生成方法、世論操作に使われたり独裁政権がこのような技術を使う脅威に触れている。これらのAIによるセキュリティの危険に対し、政府や法、専門家によるこれらの危険を回避するための協力が求められると結論づけている。また、軍事目的や商業的目的で使う場合のAIへの規制を推奨している。現状はAI社会への解決策よりも問題提起が上回っている状態である。
2月20日付英国『BBC』は「人工知能(AI)技術の悪用に専門家が警鐘」との見出しで以下のように報道している。
ドローンはミサイル、フェイク動画は世論を操作、自動化されたハッキング、これら3つのAI悪用法が専門家に懸念されている。“人工知能の悪用に関する報告書”によると、人工知能は今や、悪意ある国や犯罪者、テロリストに悪用される寸前にあるという。AIシステム開発者は、AI技術の悪用の危険を軽減する政府の対策や、政治家や研究者の協力が必要だと論じている。
特に懸念されるのは、人的レベルを超えたスーパーヒューマンレベルの知能の分野の発展。懸念される悪用例として電子的、物理的、政治的脅威がある。電子的には、グーグルのDeepMindによるアルファGOの様な技術がハッカーによりパターン解読やコード突破に使われる懸念。物理的には、悪意ある個人がドローンを買い、顔認識ソフトをつけ特定の人を狙うこと。政治的には、市民、組織、国レベルで革命を起こすものこれらが脅威として挙げられている。
閉じる
その他の最新記事