AIとか言ってますけど。
僕はIT業界の人なので、どんどん導入すればいいと思ってます。
ちなみに、AIとか言ってますけど、基本はデータ分析です。
膨大なデータを学習させて、そこから法則性や最適解を導き出すわけです。
ただ、データ分析には問題があります。
それが統計的差別です。
コロナ禍でその危険性が浮き彫りになりました。
国が依頼した研究機関が、コロナやワクチンに対して批判的な人や過激な陰謀論者は貧しい人で低学歴が多いと報告しました。笑
笑っちゃうけど、これを真面目に受け取る人がいるから笑えないって話でして。
しかも、将来的にこれをAIが学習&判断して、自動的に低学歴は陰謀論者という結論をはじき出したらどうなるか。
低学歴な人は追加で誓約書を欠かされたり、しつこく身分確認されたり、不利益な扱いを受けてしまう恐れがあるのです。
この前ネット記事で脳科学者だかが言ってた「私たちの研究では、誹謗中傷する人は世の中に不満があることが多いのです」発言も同じです。
多くの人は多かれ少なかれ世の中に不満があるし、誹謗中傷者であればなおのことだし、大事なのはそれを行動に移すかどうかの分岐点の分析だろって話です。
例えばLGBTは現状でマイノリティですが、AIが性別欄をみて男にも女にもチェックが無い人は追加で誓約書を欠かされたり、しつこく身分確認されたり、不利益な扱いを受けてしまう恐れがあるのです。
とくに差別を受けやすいマイノリティは世の中に不満を持つわけでして、こういう発言は暗にマイノリティを批判・けん制している発言だと見抜けないといけないのです。
こういうピント外れで愚かすぎる分析が差別を生むのですが、もっと問題なのは、それがAI化して、自動的差別が発動することです。
そもそも、この問題は統計データを分析すると、予期せずして出てきてしまう副作用であります。
これがとくに問題になるのは、データから導き出された法則にネガティブな内容が含まれるケースです。
例えば「貧しい人に低学歴が多い」というのは、教育にかけるお金がないから進学できないという背景があるわけです。
これは事実だから仕方ないけど、必ずしも当てはまるとは限らないのは明らかです。
「貧しい人に犯罪が多い」と言われたらどうでしょうか?
外国のスラム街の例を見れば確かにその通りですが、これも必ずしも当てはまるとは限らないのは明らかです。
判断力のある人は「必ずしも当てはまるとは限らない」と思って相手に接します。
ところがそうでない人は必ず少なからずいて、偏見でもって差別的に相手に接します。
でも、日本に住んでるとあまり「貧しい人に低学歴が多い」とか、「貧しい人に犯罪が多い」という事実を知らずに生きることができます。
それがAIによって誰もが知る知識となると、途端に差別が広がるというわけです。
しかも、本人に差別する意図がなくても、統計から判断した合理的な結果としてAIが自動的に差別的処理を発動してしまうわけです。
この辺を理解していないと、AIによる差別社会が本当に始まってしまいますし、もう始まりつつあります。