msk's blog

日々の気付きを徒然なるままに記録していきます

倫理的なAIに関して

AIが広くビジネスやデジタルサービスに活用され、今後その適用スピードや領域は加速するのは火を見るより明らかな情勢であるが、それと並行してAI適用のリスクに関する議論、特にAIの倫理性に対する議論も活発に行われている。

以前は、説明可能なAI(XAI=Explainable AI)がAIの倫理性を担保する上での基準とされていたが、責任あるAI(RAI=Responsible AI)という概念が広がっているようである。この背景として、GoogleやMeta(旧Facebook)のような、巨大IT企業に対する倫理的責任の追及が加速している社会的背景がある。

GoogleのAI開発をリードしていたティムニット・ゲブル(Timnit Gebru)氏がGoogleから突然解雇されたニュースが暫く前にネットを騒がせたが、企業内で経営層から独立したデータ分析ができる体制を構築することが、AIの倫理性を担保する鍵であると言われているようである。

メタも、CEOのマーク・ザッカーバーグ氏の下にAI事業に責任を持つCTOを配置して、RAIの推進をおこなっているようである。RAIの要素として、メタが公開している Facebook’s five pillars of Responsible AI では、RAIの5つの柱として、以下のものが紹介されている。

  • プライバシーとセキュリティ(Privacy & Security):ユーザー情報の収集や解析に関して、プロダクト横断的にプライバシーレビューを行う
  • 公平性とインクルージョン(Fairness & Inclusion):AIモデルや学習データのラベルに関するバイアスがないかどうかをプロセス実装により検知するFairness Flowの構築
  • 堅牢性と安全性(Robustness & Safety):AIの敵対的攻撃を察知し安全性を担保するための、AI red teamを作り、プロダクト横断的に検知する取り組み。同時に、マイクロソフト、大学などと連携しディープフェイクを検知するコンペティションを実施。業界全体で底上げをするためのイニシアチブの計画や運営
  • 透明性とコントロール(Transparency & Control):ニュースフィードの検索結果のランクを決めるアルゴリズムに対して、ユーザーが調整ができるようなFavorites機能の実装や、政治広告の非表示化など
  • アカウンタビリティとガバナンス(Accountability & Governance):四半期に1回Community Standards Enforcement Reportを発表し、フェイスブックやインスタグラムが責任あるAI実現に向けてどれくらい効果を出したかを調査して発表する取り組みなど

また、ハーバード大学は、倫理的AIの原則に基づいた各国政府や各企業、各団体の倫理的AIの取り組みに関する研究資料を公開している。この中では、GAFAや中国IT企業なども評価対象とされている。

IBMも倫理的なAIに関する多くの研究成果を発表している。内容は一部重複するが、IBMが考える倫理的なAIの基本特性(AI Ethics)は以下のように定義されている:

  • 説明可能性(Explainability):優れた設計は、シームレスな体験の実現において透明性を犠牲にすることはありません。
  • 公平性(Fairness):AIは、正しく調整されることで、人間がより公平な選択を行えるよう支援できます。
  • 堅牢性(Robustness):システムは重要な意思決定を行うために採用されているため、AIは安全で堅固なものでなければなりません。
  • 透明性(Transparency):透明性は信頼を強化します。透明性を高める最善の方法は、開示を行うことです。
  • プライバシー(Provacy):AIシステムは、利用者のプライバシーとデータの権利を最優先し、保護する必要があります。

 

AIが人々の生活を豊かにすることは間違いないが、反面倫理面でのリスクも存在する。テクノロジーの明の部分と暗の部分、双方を見据えた適用や推進が必要である。そのためにも、テクノロジーの進化と並行して、社会制度や法規制の変化・進化が求められている。

 

参考:

巨大IT企業は「倫理的な責任」追及から逃れられない…「忖度しない分析チーム」こそが必要だ | Business Insider Japan