【無料】国内外の著名なAI 倫理ガイドライン

ガイドラインが設立された背景

人間社会をより便利にしようと、AIによって自動化や業務改善などに用いられることが当たり前になりました。一方でこれまでにないリスクも顕在化してきました。例えば第一回のレポートにありましたプライバシーの問題や学習データセットに偏りがあったために一部の人に不利な判定をするモデルが連日報道されています。これの背景にはAIを試してみようから運用しようというフェーズの転換期にあるからと言えるでしょう。運用にあたっては何に注意したらよいかは学会や行政を筆頭に議論が活発です。学会、行政、企業、大学が本ガイドラインに批准しております。本レポートでは議論の最先端である、米国の標準化団体IEEEとEUのガイドラインを紹介していきます。

 

3.1  IEEEの考えるEthically Aligned Designの3本柱

  1.  人の価値
    AIを使用した先に「人」がいることは忘れてはなりません。AIの出力した結果は人権を守られているのか、人の共感が得られるのか、道徳的な観点は良しとするのかなど検証しなければなりません。また、「人」だけではなくその「人」の住む環境も念頭に入れなければなりません。最後に、AIはできるだけ大多数の人に利益を生むように設計しないといけません。
  2. 自己決定とデータ管理
    AIを扱うとき政治的な意思を持つと偏った判断を持ちます。時には民主主義の脅威とさえなりうります。過去のアメリカ大統領選ではSNS利用者が支持する反対政党を煽るような記事をどんどん推薦し、問題視されました。これからは利用者の信頼を損ねない設計が急務です。
  3. 技術的依存性
    AIは技術的にも信頼・安全・効果的であるように設計しなければなりません。具体的には、人間社会に寄与するか倫理を踏襲するかで、人の価値観を反映しなければなりません。さらに、利用者保護のために認証といったものもAIに組み込まれるべきです。

 

 

IEEEは3本柱をさらに8項目に分解しています。8項目は3本柱に表1のように対応しています。それぞれ8項目は関連しており、1つだけ着目すればよいものではなく、全体を意識すべきものです。

 

1. 人権

  • AI の利用が人権、自由、尊厳、プライバシーを侵害しないことを保証し、トレーサビリティを確保するプロセスを監督するために、基準や規制機関を含むガバナンスの枠組みを確立する必要があります。これは、AI に対する社会の信頼構築に寄与します。
  • 現在と将来にわたって法的責任を、情報に基づいた政策や技術的考察に落とし込む必要があります。
  • AIは常に人間の判断と指示に従わなければなりません。
  • 当面の間、AIに人権と同等の権利や保護を与えるべきではありません。

 

2. 健康

  • すべてのAI設計において人間の幸福を最大限追求します。

 

3. データ管理

  • 政府を含む組織は、誰がどのような目的でどのような個人データを処理できるか明確にするべきです。
  • 特に個人を特定するものについてはその都度権限の見直しが必要です。
    • 未成年や判断力が低下している方のデータを扱うときは、後見人制度などを活用し同意をとるとします。

 

4. 効果

  • AI の開発者は、リスク許容度を含めた要件定義をし、解釈可能な測定基準を設ける必要があります。
    • 測定基準の結果は利害関係者が容易に参照できる体制の構築をします。
    • 測定基準の説明書は提供されるようにします

 

5. 透明性

  • システムを客観的に評価し、測定・検証可能な透明性のレベルを記述した開発をします。設計者にとっては、透明性の確保は自己評価するための指針になります。透明性の一例として、
    • 介護ロボットや家庭用ロボット向けで、「なぜボタン」を押すことで動作理由を説明します。
    • 検証・認証機関向けAIのアルゴリズムがどのように検証されたかを公開。
    • 事故調査機関に対しては、フライトデータレコーダーに相当する安全性で、センサーのデータを保存する。

 

6. 説明責任

  • 説明責任を果たすために次のことが必要です。
    • AIの法的責任を明確にする法案を議論するべきです
  • AI利用者の社会的な属性を意識する必要があります

 

7. 意図通りか

  • 悪用されても、影響が最小限にとどまるようにします。
  • AIが悪用される可能性がある十分に周知します

 

8. コンピテンス

  • 開発者は利用者向けに操作方法を明記する必要があります
  • 誤った操作にも対応できるように、一般向け・上級者向けで機能を分け、フェールセーフを盛り込むべきです
  • 開発者は、AIの出力により影響を受ける利用者がいるということを意識すべきです

1.2  EUの考えるEthically Aligned Design

EUは図の3つの要素は必須であるが十分ではないと警鐘しています。

  1. 法令順守
    AIシステムは無法地帯で運用されているわけではありません。欧州、国内、国際レベルの多くの法的拘束力のある規則が、今日のAIシステムの開発、展開、使用にすでに適用または、関連しています。法的根拠は以下の通りですが、これらに限定されるものではありません。EU基本法(EU条約と基本権憲章)、EU不随法(一般データ保護規則、製造物責任指令、非個人データの自由な流通に関する規則、反差別指令、消費者法、労働安全衛生指令など)、国連人権条約と欧州評議会条約(欧州人権条約など)、多数のEU加盟国法などです。法律には、積極的な義務と消極的な義務の両方が規定されています。つまり、法律は、何ができないかだけでなく、何をすべきか、何をしてもよいかということも含めて解釈されるべきなのです。法律は、特定の行為を禁止するだけでなく、他の行為を可能にするものでもあります。この点、EU憲章には、データ保護や非差別など、AIの信頼性を確保する上で馴染みの深い分野に加え、「事業を行う自由」や「芸術と科学の自由」に関する条文があることに注目する必要があります。
  2. 倫理尊重
    法律は必ずしも技術的な発展に追いついておらず、倫理的な規範から外れて、特定の問題に対処するのに適していない場合があります。AIシステムが信頼に足るものであるためには、倫理的規範との整合性を確保し、倫理的である必要があります。
  3. ロバスト性
    倫理的な目的が確保されたとしても、個人や社会は、AIシステムが意図しない害を及ぼすことはないと確信する必要があります。そのようなシステムは、安全、安心、信頼できる方法で実行されるべきであり、意図しない悪影響を防ぐためのセーフガードも予見されなければなりません。したがって、AIシステムが堅牢であることを保証することが重要です。これは、技術的な観点(アプリケーションのドメインやライフサイクルの段階など、与えられた状況において適切なシステムの技術的堅牢性を確保する)と、社会的な観点(システムが動作する文脈や環境を十分に考慮する)の両方から必要とされるものです。したがって、倫理的AIとロバストAIは密接に絡み合い、互いを補完するものです。

 

 

1.3 IEEEとEUを踏まえて

法令と倫理が重なっていますが、米国では技術、EUはロバスト性が特徴になっています。米国のガイドラインでは過去の事例をベースに安全にAIを運用及び利用方法が中心となっております。この背景は米国には世界規模のテクノロジー会社が多数あり、過去のトライアンドエラーに基づくノウハウが蓄積されたのではないかと考えられます。他方で、EUのガイドラインはどのように基準を作って行くのかが中心になっております。AIを締め出すよりかは、AIを受け入れることを前提にAIの責任範囲を限定することで開発者・利用者がより安心できる環境づくりを整備しているようにうかがえます。この一つのマイルストーンとしてGDPRがあげられると思います。

 

筆者のあとがき

今後は、日本がAI規範を整備していくにあたって欧米に追随することが考えられます。筆者は、米国は安全性、欧州は法整備のように独自性のある規範を考えることを提唱します。ガイドラインに多様性があると、開発者はAI開発にもっとも適した地域を選択できます。さらに、同じ地域の開発者と競合し、サービス向上を期待できます。



視聴済みにして続ける