abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

コンテンツは以下の言語で利用可能です: English, 한국어

記事

12 1月 2024

著者:
Sam Biddle, The Intercept

ガザでの民間人攻撃にAIが導入されている最中、ChatGPTのポリシーから「戦争目的での使用禁止」という文言がひそかに削除されたことに専門家が警鐘;企業のコメントを含む

OpenAI

[OpenAI Quietly Deletes Ban on Using ChatGPT for “Military and Warfare] 2024年1月12日

[英文和訳:ビジネスと人権リソースセンター]

OpenAIは2024年1月10日、絶大な人気を誇る対話型AIサービス「ChatGPT」の使用ポリシーをひっそりと更新し、同社のAI技術を軍事目的で利用することを禁ずるという文言を削除していた。

これ以前の使用ポリシーには「身体的危害のリスクの高い活動」特に「武器の開発」と「軍事・戦争」への利用を禁止する旨の規約が記載されていた。この軍事利用を明確に禁じる文言によって、米国防総省やその他の軍隊は同社サービスを公式に利用することができず、同社にとって極めて利益の大きな用途が排除されていたと考えられる。新しいポリシーには、「自分自身や他人に危害を加えるために同社のサービスを利用してはならない」と記載され、その例として「武器の開発や使用」への利用を禁止する規約は残されたが、「軍事・戦争」のための利用を包括的に禁止する規約は削除された。

同社によれば、この変更はポリシーを「より明確」かつ「より読みやすく」することを目的とした大幅な改訂の一環として行われたものだが、上記の文言の削除に関して事前の発表はなかった。同社はこの改訂で他にも文言やフォーマットの大幅な変更がなされたと述べている。

米国のインターネットメディアThe Interceptの取材に対し、OpenAIの広報担当者ニコ・フェリックス氏は、「このツールは今や一般ユーザーによって世界中で広く使用され、ユーザー自身がGPTを構築できるようにさえなっているため、わかりやすく、適用しやすい普遍的な原則を作ることを目指した」と述べている。さらに「『他人に危害を与えない』という原則は広範で理解しやすく、さまざまな文脈で適用できる。その具体例として私たちは武器の開発・使用や他人への危害の禁止を挙げている」とも述べた。

ただし、「危害」という曖昧な文言があらゆる軍事用途での使用を含むのかとの問いに対して同氏は明言を避け、「軍によるものも含め『武器の開発や使用、他者への危害、財産の破壊、サービスやシステムの安全保障を侵害する不正な活動』にわれわれの技術を使用することは認められない」と返答するにとどまった。

[...]

機械学習と自律システムの専門家であるハイディ・クラーフ氏は「新旧のポリシーには明らかな違いがある。以前のものは武器の開発ならびに軍事や戦争のための使用は認められないと明確に定めていたのに対し、新ポリシーは柔軟性と法令順守を強調している」と述べている。さらに、「武器の開発や軍事・戦争に関する活動は、法律上さまざまな範囲で認められている。AIの安全性に関して起こりうる問題は重大だ。大規模言語モデル(LLM:Large language Models)にはバイアスやいわゆる『幻想』の問題があることがよく知られており、全般的な精度に欠けるため、もし軍事や戦争のために使用されれば、不正確で偏った作戦につながり、民間人の被害や犠牲を悪化させる可能性がある」と述べた。

このポリシーが実社会にどのような結果をもたらすかは不明だ。The Interceptが昨年報道したように、米国防総省や米諜報機関がAIの軍事利用への関心を高めているなかで、OpenAIは「軍事・戦争」での利用禁止措置についての言及を避けるようになっていた。

連邦取引委員会(FTC)に以前勤務していたAI政策アナリストで、人工知能の社会的影響などに関する研究機関AI Nowのマネージングディレクターを務めるサラ・マイヤーズ・ウエスト氏も、「ガザ地区で民間人を標的とする攻撃にAIシステムが使用されていることを考慮すれば、OpenAIがポリシーの禁止事項から『軍事と戦争』の文言を削除したことは注視すべき出来事だ」と述べた。同氏は「新ポリシーに含まれる文言は曖昧で、OpenAIがポリシーをどのように適用していくつもりなのか疑問が生じる」と語っている。

[...]

The Interceptの依頼でChatGPTのポリシー変更を精査した専門家らは、OpenAIが同社サービスの軍事利用を認めないという姿勢をひそかに緩めようとしているとみている。ランカスター大学のルーシー・サッチマン名誉教授(科学技術人類学)は、「『軍事と戦争』から『武器』のみに変更したことで、狭義の武器開発に直接関与しない限り、OpenAIが指揮統制インフラをサポートできる余地を残しているのではないか」と述べている。1970年代から人工知能を研究し、ロボット兵器規制国際委員会のメンバーでもあるサッチマン教授は「武器の開発や使用には関与していないと主張しながら、戦闘プラットフォームには関与できるというのは欺瞞と言わざるをえないだろう。武器は社会技術システム(指揮統制インフラを含む)の一部であり、そこから切り離すことはできないのだから」と述べ、「新ポリシーの文書は武器に焦点を当てることで、軍事契約や戦闘作戦の問題を回避していると考えれば辻褄があうだろう」と付け加えた。

[...]

プライバシー情報

このサイトでは、クッキーやその他のウェブストレージ技術を使用しています。お客様は、以下の方法でプライバシーに関する選択肢を設定することができます。変更は直ちに反映されます。

ウェブストレージの使用についての詳細は、当社の データ使用およびクッキーに関するポリシーをご覧ください

Strictly necessary storage

ON
OFF

Necessary storage enables core site functionality. This site cannot function without it, so it can only be disabled by changing settings in your browser.

クッキーのアナリティクス

ON
OFF

When you access our website we use Google Analytics to collect information on your visit. Accepting this cookie will allow us to understand more details about your journey, and improve how we surface information. All analytics information is anonymous and we do not use it to identify you. Google provides a Google Analytics opt-out add on for all popular browsers.

Promotional cookies

ON
OFF

We share news and updates on business and human rights through third party platforms, including social media and search engines. These cookies help us to understand the performance of these promotions.

本サイトにおけるお客様のプライバシーに関する選択

このサイトでは、必要なコア機能を超えてお客様の利便性を高めるために、クッキーやその他のウェブストレージ技術を使用しています。