米国五角大楼、AI企業Anthropicに圧力

軍事利用の安全性をめぐる対立

米国五角大楼の圧力

米国五角大楼は、AI企業Anthropicに軍事利用の安全性をめぐる圧力をかけている。Anthropicは、軍事利用の安全性を確保するために、自社のAIモデル「Claude」の使用を制限していたが、五角大楼はこれを解除するよう要求している。

Anthropicの対応

Anthropicは、五角大楼の要求に応じて、Claudeの使用を制限する政策を変更した。ただし、Anthropicは、米国民衆に対する大規模な監視や、人間の介入を必要としない致命的な自律兵器の開発に対する使用を禁止するという二つの赤線を保持している。

安全性をめぐる対立

五角大楼とAnthropicの間で、安全性をめぐる対立が続いている。五角大楼は、Anthropicの安全性に関する政策を変更するよう要求しているが、Anthropicは、自社のAIモデルを安全に使用するために、必要な措置を講じていると主張している。

ソース情報

元記事公開日
翻訳・編集
最終更新

本記事は上記ソースを基に翻訳・編集したものです。 内容の正確性については元記事をご確認ください。

コメント 0

0/2000
コメントを読み込み中...
半導体の記事一覧へ戻る