sekaiwoyakusu’s blog

世界の"おもしろそう"を日本語に訳します



SEKAIWOYAKUSU

世界の"おもしろそう"を日本語に

貧しい人々を嫌う人工知能

SPONSORED LINK

f:id:sekaiwoyakusu:20180930142849j:plain

AIが台頭した際に人間が直面する最大の驚異は、ロボットの暴走なんかではなかう、偏った考えをもつアルゴリズムのようです。偏見をもつアルゴリズムによって引き起こされる全ての悪いことは、不公平なことに貧困層や社会の主流から取り残された弱者や少数派へのみ悪影響を与えるとみられています。

形式がAIであれ、データをふるいにかけて分類する単純なプログラムであれ機械学習のアルゴリズムは、合理的な決定を下すことができません。なぜなら、アルゴリズム自体が合理的ではないからです。アルゴリズムは、パターンを見つけるだけです。米国の政府機関が私たちの生活に大きな影響を与える決断をアルゴリズムに任せていることは、理解に苦しみますし、非倫理的であると言えます。

例えば、食料品店の在庫をアルゴリズムを使って管理することは人間にとって大きな助けとなるでしょう。なぜなら、従業員は何百万もある商品の在庫を頭で覚えたり、管理することは難しいからです。アルゴリズムなら大量の商品の管理を行うことは簡単です。しかし、アルゴリズムが誰かの自由や子どもを奪うために使われるとすれば、私たちはアルゴリズムに力を与え過ぎていると言えます。

2年前にPro-PublicaがCOMPASアルゴリズムにおける明らかな偏見を暴露する重大な記事を発表したことで、アルゴリズムが内包する偏見に関する議論が大きく広がりました。COMPASアルゴリズムとは、ノースポイント社が開発した再犯予測プログラムです。このアルゴリズムは、被告に決められた質問を答えさせ、過去の犯罪データと比較した上で再犯の可能性を割り出すシステムです。これには、被告の人種も再犯予測をする上での判断材料に採用されています。前述の記事では、アルゴリズムが肌の色に基づいて再犯率を予測しているという問題を指摘しています。

アルゴリズムが政府職員の仕事をサポートする時代が到来し、あなたが同性愛者、有色人種、貧困層であれば、不公平な偏見にさらされるリスクが飛躍的に高まります。

「金持ちで白人であれば、アルゴリズムによる偏見にさらされるリスクは完全にない」とは言い切れません。しかし、彼らは自身の自由、子ども、現在の生活レベルを失うリスクははるかに低いのです。重要なのは、私たちはアルゴリズムが私たちにとって大きな助けになると教えられていますが、実際は私たちの生活を悪化させる驚異であるということを知る必要があります。

作家のエリザベス・エコ氏は、不公平な予測分析ソフトが社会福祉課の調査員の判断に影響を与え、彼女から子どもを取り上げる可能性があったという衝撃的な実体験を紹介しています。同氏は、アルゴリズムの注視から逃れられない人びとも同様の体験をする危険性があると警鐘を鳴らしています。彼女の研究では、アルゴリズムというシステムは「貧困=悪」であると定義していることが明らかになっています。

UNDARKの記事の中で彼女は、次のように述べています。

「アルゴリズムの中に組み込まれている131の指標には、メディケイド(米国の公的医療保険制度の1つ)、他の連邦政府の支援プログラム、メンタルヘルスや薬物治療の受診・参加履歴などが含まれている。南カリフォルニア大学のパッタナム・ホーンスタイン教授は、これらのサービスと関わりがあった履歴を持っているからといって、自動的に危険性がある親であるという評価を得るわけではないとしている。しかし、これらのサービスを使った人びとには、使ったことのない人びとよりも多くの情報が政府機関にストックされている。もっと言えば、システム上にこういった情報が十分にない家庭は、評価の対象外となるため潜在的な危険性のある親は表面化してこない。」

あなたが虐待や育児放棄を行う親であると告発され、依存症やメンタルヘルス上の問題に対処する手段を個人的に持っていれば、アルゴリズムはあなたを評価しない可能性がある。しかし、政府の支援を受けたり、州や郡が発行した医療カードを待っていたりすれば公的な履歴が残るため、あなたは危険な親として判断されるでしょう。要するに自身の負担でプライベートな治療やカウンセリングを受けることが出来る富裕層の親は、評価対象から外れており、公的な治療やカウンセリングを受けている貧困層の親は、過去の履歴から評価の対象となるわけです。

簡単に言えばこれが大きな問題なのです。研究者や科学者の最大の目的は、資本主義や党利党略には太刀打ちすることができません。例えば、スタンフォード大学の研究者のアルゴリズムは、同性愛を予測すると言われているが、実際は研究者がアルゴリズムを設計した同性愛者を選別するという目的ではないわけです。

スタンフォード大学の機械学習研究室は危険ではありませんが、共和党の影響を大きく受ける連邦政府は、ますます性的少数者への対抗姿勢を強めています。アメリカ軍に入る前に自身が同性愛者であるか、否かというテストを受け、同性愛者ではないことを証明することが入隊の資格と1つとなったらどうなるのでしょうか。

セクシュアリティーや人種は、貧困や選挙権の剥奪といった問題につながるとは思いませんが、少数派の疎外化という問題には大きく関連しています。例えば、性的少数者や黒人は、既に不公平な法律や制度上の不正に直面しているわけです。こういった悪しき不正を永続化するためにアルゴリズムを使うことは、残酷な行為を自動化することに他なりません。

社会的なブラックボックスとなっている問題は、AIや偏見をもつアルゴリズムでは解決できません。むしろ、問題を悪化させるだけです。偏見を全くもたないアルゴリズムを開発できるまでは、AIを使って個人の自由、子ども、そして未来を奪うことは間違っています。

 

元記事:Artificial intelligence hates the poor and disenfranchised