Laboro

Laboro.AIコラム

AIは「善」か、それとも「悪」か。倫理と進歩の境界線

2022.7.21
監 修
株式会社Laboro.AI 執行役員 マーケティング部長 和田 崇

概 要

“AI” と画像検索すると、表示結果に並ぶのは白い顔のヒューマノイドたち。また、オバマ前米大統領のぼやけた顔画像をアルゴリズムに投入し高解像度画像に再現した結果、白人男性の顔になってしまった…など、 AI のバイアスをテーマにした話題がつきないのは、リアルな世界のデータによって育てられた AI が今の偏った社会を反映しているからなのかもしれません。

人は誰もが先入観を持っているもので、人が作り出すものにもバイアスはつきものだとも言えるのかもしれませんが、 AI が生み出すバイアスを調整してより良く使われることに今、多くの専門家が挑んでいます。いつの時代も、新しいテクノロジーは新しい倫理を生み出しながら、進歩を遂げていくのです。

目 次

AI は白い顔をしている
 ・世界がもし100人の村だったら
 ・バイアスはウイルスのように世界に広まる
AI には「善」も「悪」もない
 ・新しいテクノロジーは諸刃の剣
ビッグデータ から グッドデータへ
 ・つのる不信感と、すすむ規制
 ・2022年は「合成データ」の年になる
新しいテクノロジーは新しい倫理をつくる

AI は白い顔をしている

世界がもし100人の村だったら

2019年のある調査報告によると、アジア・パシフィック地域に暮らす人の半数以上、そしてアフリカ大陸に暮らす人の約70%がインターネットに接続せずに暮らしています。ということは、“手のひらのスマートフォンからインターネットで世界中の人とつながる”という謳い文句は、私たちの頭の中にあるフィクションに過ぎないのでしょうか。

本当のところはどうなのか、「世界がもし100人の村だったら…」として広く知られる世界の縮図のストーリーを借りて、現代社会をインターネットに接続している人の割合で表現してみると

世界がもし 100 人の村だったら、インターネットに接続している人は、
 アジア・パシフィックに 27 人
 アメリカ大陸に 10 人
 ヨーロッパに 7.5 人
 アフリカ大陸に 4 人
 アラブ諸国に 3 人
 CIS諸国に 2 人
です

数字を見て「合計が合わない」と感じるのは当然、この中にはインターネットに接続していない人が含まれていないからです。隠れているインターネットに接続していない人の縮図を表現してみると、次の通りです。

世界がもし 100 人の村だったら、インターネットに接続していない人は、
 アジア・パシフィックに 28.5 人
 アフリカ大陸に 9.5 人
 アメリカ大陸に 3 人
 アラブ諸国に 2.5 人
 ヨーロッパに 1.5 人
 CIS諸国に 1 人

です。

(Photo by Rod Waddington / Flickr

データが石油に代わって世界を動かすと言われるデータドリブンな今の時代、この隠れた人々はものすごい勢いで取り残されつつあります。実際、私たちが日々インターネットを介してサービスを利用している Apple、Google、Microsoft で働く人も、ほとんどが白人とアジア人で、そのほかの有色人種の雇用については 2014年以降 2019年までに大きな伸びは見られないと言います。

いま主流になっているAIの糧となるデータは、主にインターネットにアクセスできる人々から収集されており、AIの実用化が進むと世界の偏りが助長されてしまうのではないかと、今世界中で多くの議論がされています。

バイアスはウイルスのように世界に広まる

アルゴリズムのバイアスは、人間のバイアスのように不公平を生みます。 アルゴリズムは、バイアスをウイルスのように計り知れないスケールで瞬時に広めることができます。

これは 2016年に TEDx に登壇したアフリカ系女性の言葉です。MITメディアラボに所属していた Joy Adowaa Buolamwini 氏はこのプレゼンテーションの中で、素顔の自分は AI に認識されず、白い仮面を被った自分が人として認識される様子を映し出しました。

(Photo by Rod Waddington / Flickr

時は流れ技術は進歩しましたが、未だ有色人種の方が自動運転車に認識されづらく衝突されやすいという調査結果も報告されています。画像認識技術だけでなく、例えば Amazon の採用の場面で現従業員のデータをベースに応募者の書類スクリーニングに AI が用いられた際には、女性の名前が選考から自動的にはじかれてしまうということが世間を騒がせました。エンジニアがそのバグの修正を試みるも、今度は男性によく使われている言葉を女性によく使われている言葉よりも良しとする傾向が見つかるなど、ひとつのバイアスが根を張り巡らしているような状態にあったようです。

AI には「善」も「悪」もない

新しいテクノロジーは諸刃の剣

AI ・機械学習はビッグデータに関数を適用したものであって、当然ながらその処理プロセスは倫理的な原則に則っているものではありません。そもそも関数には「善」も「悪」もなく、AI がデータの中のバイアスを特定したり防止したりする機能があらかじめ備わっているはずはないのです

ならば人間の方でコントロールしなければならないのでしょうが、公益を第一に考えるということが私たちの経済活動の DNA として刻まれてこなかったせいか、エンドユーザーよりビジネスを優先したり、より大きな利益をもたらしそうなユーザーを優先したりして 、利益の最大化のためにAIを利用するような事態が少なからず生み出されてしまっています。

(Photo by Bill Smith / Flickr

一方で、この現状が過去 20年の AI の開発と利用を通じて築かれたものであるなら、これからの 20年を使ってAIによって不公平が生まれる問題を解決していけば良いという見方もあります

歴史の中で、安全に扱えてそれまでの爆薬の何倍もの爆発力を持つダイナマイトも、採掘や工事の現場で使われるだけではなく、次第に戦争に持ち出されるようになり多くの犠牲者を生みました。巨額の利益を上げて「死の商人」と呼ばれた発明家ノーベルは、それでも科学の発展のためにとノーベル賞の創設を遺言に残し、今やノーベル賞は人類に最も貢献した人に贈られる賞として、その研究が平和に使われることを願う思いとともに現代に引き継がれています。

(Photo by Internet Archive Book Images / Flickr

「ノーベル賞を授与された研究は、人類の発展のためにも殺人兵器にも使用可能という両刃の技術といっていいのです。科学に携わる人間ならば、そのことを身に染みて感じていなければいけないでしょう。」理論物理学者 益川敏英、2008年ノーベル物理学賞受賞

新旧を問わず、また大小を問わず、テクノロジーというものが諸刃の剣となる側面を必ず持っているとするならば、AI についても「人間がAIをコントロールする」という考え方から一歩踏み込み、「人間が自分たちをコントロールする」ことを問うフェーズにあるのかもしれません。

ビッグデータ から グッドデータへ

つのる不信感と、すすむ規制

さて、AI というとまずビッグデータが連想されるかもしれませんが、多くのデータをアルゴリズムに投入してきた研究者や開発者が振り返って思っていることは、ビッグデータよりもグッドデータの重要性についてです

AI から差別の目をなくすにはどうすればよいのかと考えたとき、立ち返るべきは AI に投入されるデータの質のところで、きちんと人によって選り分けられラベル付けされたデータがあれば、その10倍の量の無作為に投入されたデータよりもよいパフォーマンスができるとも言われています

つまり、これまではできるだけ多くのデータを投入してからアルゴリズムに手を加えて調整していたことから、むしろその逆に、同じアルゴリズムのままデータの構成を調整し改善しようとする動きが出てきています。

(Photo by Chad / Flickr

グッドデータを求める声が強まる一方で、警察や裁判、ローンの申請、医療、雇用といったさまざまな場面で AI の導入が進む中、市民の間ではデータが取得され利用されることに対する不信感が高まり、データを集めることがますます難しくなってもいます。

EU では 2018年より、EU を含む欧州経済領域(EEA)域内で取得された「氏名」「メールアドレス」「クレジットカード番号」などの個人データを EEA 域外に移転することが原則禁止されています。2019年には、サンフランシスコで警察や市が顔認証技術を使うことが禁止され、こうした対応はアメリカの別の都市にも波及し、また、ベルギーやモロッコも顔認識技術に関する規制をすでにスタートさせています。今年6月、ついにMicrosoft も「顔の表情から感情を推測するソフトウエアの販売を中止する」と発表しました

2022年は「合成データ」の年になる

このような現状を打開すべく、AI 研究開発の最前線ではエンジニアが合成データをつくり、AI は規制や差別のない架空の世界からより多くのデータを取り込み始めています。それはいわば、人工的に人口を増やし、差別のないパラレルワールドをつくりだしているようなもので、このパラレルワールドを使えば実際には存在しない人たちから際限なくデータを用いることができるというわけです。

AI のためにこうしたデータをつくっているスタートアップは世界に 50以上も存在し、2024年までには AI をトレーニングするために使われるデータの 60% が人工的に合成された人工人間のデータになるだろうとも予測されています

個人情報に関する規制に惑わされず、しかも不完全なデータにかかるラベリングなどの手間をカットできる合成データは、リアルなデータの100分の1くらいのコストで利用できるというところまで見えています

(Photo by Wendelin Jacober / Flickr

例えば、ローンをより公平に配分するアルゴリズムを設計するためには、多数派グループの平均値と同等のクレジットスコアを持つ少数派グループの架空のデータベースをつくり、それをアルゴリズムに投入するという方法が考えられます。このアルゴリズムは実際に、イギリスの銀行でローンのシステムをよりよくするために使われています

ある報告では、現在使われているアルゴリズムのうち 85% が、女性や有色人種の人々のデータが不足していることなどに起因したバイアスによってエラーを起こしやすくなっているとされる一方、そうしたリアル社会の偏りが合成データによって再調整されようとしているのです。もちろんリスクがないわけではなく、限られたデータから合成してつくられるために見落とされてしまう要素もあることは忘れてはいけません。

新しいテクノロジーは新しい倫理をつくる

こうした取組みの他方で、バイアスをゼロに近づけるため、そのデータにユニークなニュアンスを全て排除した先に「面白さ」といえるものは何か残っているのだろうかという疑問の声も挙がっています

例えば、世界のさまざまな国の人が「戦争と平和の境界はどこにあるのか」と問われたとき、それぞれの環境や文化・民族的な背景によって思い描くものは異なるそうです。日本人が「誰かを殺すことを強要されるかどうか」と答える一方で、ペルー人からは「子どもたちが遊べる場所であるのかどうか」という答えが上がってくるといった具合です。

戦後の学校教育で「戦争は反対ですか?」と問われ続けてきた私たち日本人と、暴動が身近な地域で「暴力に屈するのですか?」と問われ続けてきた人々は、全く違う見方で平和を捉えているに違いありません。

(Photo by Ian Riley / Flickr

人は誰もが生まれ持った環境によって醸成されてきた先入観を備えており、人が生み出すものにバイアスはつきものです。そして、その人間によって開発されるAI がバイアスを生んでしまうことは、考えてみれば不思議なことではありません。AIは善か、それとも悪か。その答えはそのテクノロジーを用いる私たち次第ということです。

とすれば先人に習い、新しいテクノロジーが新しい倫理を生み出す機会を与え、世界をより良くすることにつながると前向きに考えれば、 偏ったデータによって誤った方向へと進みかねない今の状況を再調整することに挑む道をつくることが、AIというテクノロジーを前にして、現代を生きる私たちがやるべきことなのかもしれません。

カスタムAIの導入に関する
ご相談はこちらから

お名前(必須)
御社名(必須)
部署名(必須)
役職名(任意)
メールアドレス(必須)
電話番号(任意)
件名(必須)
本文(必須)

(プライバシーポリシーはこちら