OpenAIが米国の Department of War との契約について説明する記事を公開しました。
https://openai.com/index/our-agreement-with-the-department-of-war/
内容としては、「国内の大量監視には使わない」「自律兵器の制御には使わない」「高リスクな自動意思決定には使わない」といったレッドラインを明示したうえで、それでも政府・安全保障の領域には関わっていく、という立場です。
ここで面白いのは、技術の進化そのものよりも、AI企業の立ち位置が一段はっきりしてきたこと。以前は「研究寄りの会社が、どこまで国家や軍事と距離を取るのか」が曖昧だったけど、もうそういうフェーズではなくなってきた。AI が社会インフラに近づくほど、この問いは避けられないんでしょうね。
もちろん、説明を読んで「ちゃんと線引きをしている」と見る人もいれば、「そこまで行くなら結局なし崩しでは」と感じる人もいるはず。むしろ後者の反応の方がネットでは強くなりそうです。AI に関する議論って、性能の話よりも「誰のために使うのか」の話になった時の方が一気に温度が上がる。
個人的には、こういう話は単純な賛否で片付けにくいと思っています。安全保障の現場が AI を使うのは止められないだろうし、だったらルールを持ったプレイヤーが関わる方がマシという理屈も分かる。でも同時に、一度関わり始めると境界線はじわじわ緩みがちです。だからこそ、今回みたいな「何をしないか」を明文化する姿勢は最低限必要なんでしょう。
AI が便利かどうかではなく、AI企業がどんな世界観を選ぶのか。最近のニュースの中では、その部分がかなり露骨に見える話でした。
