PR
Keyword Search
Freepage List
人道に反するとの非難も
科学文明論研究者 橳島 次郎
人口知能兵器の是非
今年 7 月、国際連合の安全保障理事会で、人工知能( AI )に関する公開討論会が開かれた。
国際平和の維持を任務とする安保理が、 AI という一先端技術を取り上げたのは、それが軍事目的で使われることが大きな脅威をもたらすと考えられたからである。特に焦点となるのが、人間の関与なしに搭載された AI だけで敵を識別し殺傷を伴う攻撃を行う、自立致死兵器システム( LAWS )の開発についてである。
AI により衛星画像や通信情報などを収集し偵察を行い、人間が知れ位下範囲で自動的に目標を補足し攻撃を行う兵器は、すでに実用化されている。ロシアによるウクライナ侵攻で、双方が使用している無人機(ドローン)は、その代表例である。ほかにも水上・水中の敵の偵察と戦闘を行う無人艦艇や、迎撃だけでなく地雷除去やサイバー戦も行う無人地上車両などの開発例もある。
こうした自動兵器システムをさらに高度化し、一切人間の操作なしに AI が独自に、つまり自律的に作戦を決め攻撃を行うのが LAWS だ。まだ実用化には至っていないが、技術的な農政は早くから検討されており、その倫理的是非も議論されてきた。
LAWS 、第一に人間の折衝与奪の権を機会に委ねることになるので、人道に著しく反すると非難される。 AI が敵の識別を誤り、非戦闘員(民間人)を殺傷したり、過剰な苦痛や損害をもたらす攻撃を行ったりしないかも懸念される。どちらも国際人道法に違反する行為だ。また、人間の指揮官や作業要員が AI に依存し現場から離れ、作戦を統括する能力が衰えてしまう恐れもある。
この問題は2017年に設けられた国際条約締約国政府専門家会議で検討されてきた。だが、禁止するよう求める中南米などの非同盟諸国と反対するロシアや米国を筆頭とする軍事大国の意見の隔たりは埋まらず、 LAWAS をどう管理し規制するか、具体的な方策を決められないでいる。
日本政府は、人間が一切関与しない完全自立致死性兵器システムの開発は行わないが、国防の作業負担を軽減できる利点があるので開発を認めることにしている。
昨年公布された経済安全保障推進法により、特定重要技術とされる AI に関し、軍民両用可能な技術開発を全省庁が、自立殺傷兵器の開発につながることになるのか、注視する必要がある。
【船体技術は何をもたらすか‐ 6 ‐】聖教新聞 2023.9.19
災害復興学の体系化を目指す November 17, 2024
どこまで人間と認める? November 16, 2024
居場所を巡る旅 November 3, 2024
Calendar
Comments