強制力がない審議会の提言ですが
既にAI倫理監査官を採用済みとか・・
10月31日、米国政府の国防革新評議会(Defense Innovation Board)が国防省におけるAI開発や使用における「5つの原則:Principles」をまとめて国防省に検討するよう提言しました。
日進月歩で進むAI開発ですが、ここ最近、米国防省や情報関連機関でAIシステム開発や使用に関する倫理規範(AI ethics)が必要ではないかとの問題意識が高まっており、6月には情報機関の監察官がAI開発や利用に関する説明責任を果たすための投資が不十分だと指摘し、国防省では統合AIセンターにAI倫理監察官を配置するといった動きが相次いでいるようです
国防革新評議会は学者や企業幹部などから構成され、座長はカーネギーメロン大学のMichael McQuade研究担当副学長が勤め、パブリックコメント募集や公聴会、専門家との討論会、机上演習などを経て「5つの原則」がまとめられたと言うことです
米国防省はこの提言をどのように扱うかを検討するため、「DoD Principles and Ethics Working Group」を設けて具体的検討を開始しているようです
その「5つの原則:Principles」とは
●人間の責任明確化
人間が適切なレベルの判断を下し、AIシステムの開発、展開、使用、および結果に対して責任を持ち続ける必要がある。
●公平性の確保
AIを使用した戦闘または非戦闘AIシステムの開発に際して、意図しない偏った思考パターン(バイアス)を回避するために、慎重な措置を講じる必要がある。
●追跡可能性
AIシステム開発において、技術やその開発プロセス、運用方法の検討開発に関して、その経緯や記録が確認できるように、透過的で監査可能な方法、データソース、設計手順と文書化などを確立しておく必要がある
●信頼性
AIシステムが明確に定義された使用領域で活動するため、システムの安全性、セキュリティ、堅牢性が、その使用領域内のライフサイクル全体で試験・保証される必要がある
●ガバナンス可能性
AIシステムは、意図した機能を果たすと同時に、意図しない害や混乱を検出して回避する能力を備えるよう、設計および設計する必要がある。
////////////////////////////////////////////////
最後の「ガバナンス可能」原則の部分は、提言取りまとめの最終段階に、AIが暴走するような場合に人間がAIを非稼動にする仕組みを設ける事の重要性を強調するよう修正されたそうです。
また原則発表会見でMcQuade座長は、「国防省が真剣な取り組み事を期待し、併せて、このような原則を遵守する国として本件に関する世界的な対話を開始する機会にしてほしい」と語っています。
「ひねくれもの」のまんぐーすは、きっと中国やロシアは、「中国共産党やプーチン派の利益になるなら全てOK原則」程度のゆるい規制だろうな・・・と考えてしまいますが、AI操縦の自国の航空機から攻撃される未来は避けたいので、AI専門家の皆様にはよろしくお願いしたいところです
AI関連の記事
「米国防省AI研究開発は2020年に突破口を」→https://holyland.blog.ss-blog.jp/2019-09-02
「人工知能シミュレータ提案を募集」→https://holyland.blog.so-net.ne.jp/2019-06-26
「AI技術を昆虫に学べ」→https://holyland.blog.so-net.ne.jp/2019-01-12-1
「DARPAが新AIプロジェクトを」→https://holyland.blog.so-net.ne.jp/2018-09-11-1
「中露がAI覇権を狙っている」→https://holyland.blog.so-net.ne.jp/2018-07-28
「2025年にAIで中国に負ける」→https://holyland.blog.so-net.ne.jp/2017-11-04
「DARPA:4つの重視事項」→https://holyland.blog.so-net.ne.jp/2018-09-08