
社会学科ニュース
【社会学部】【社会学部】アルゴリズムと文化的価値観についての一考察
本学科では、未来社会についてデータサイエンスを活用したクリティカルシンキング力を活用して未来想像をしていきます。
未来想像に関連して、9月14日にこの10年間、最先端のAIテクノロジーに関わってきた Kai-Fu Lee 氏の著書『AI 2041』が出版され、話題になっています。その中でも、AIの進化が予測不能で10年から20年先の未来を想像することしかできないだろうとLee氏は語っています。
未来社会はただの夢の未来社会の想像ではなく、そこに住む人たちの価値観があり、幸せがあり、充実感に溢れた社会であり、それを支えるAI技術があるように思います。
例えば、交通事故のない未来社会について考えてみたいと思います。自動運転のアルゴリズムについて考えて見ましょう。
(※1)このアルゴリズムとは、絶対にどんな状況下においても当てはまる唯一無二のものなのでしょうか。
【ここで考えてみる状況】
片側2車線の制限時速50キロの道路を走行中の自動運転の車(大学生男女5人が乗車)が青信号の交差点に差しかかった。
その時、突然、お母さんの手をすり抜け子供が道路に飛び出して内側の車線の真ん中まで行ってしまった。とっさに、そのお母さんが歩行者信号を無視してベビーカーを押して子供を追いかけた。それにつられてそばで信号待ちしていた老婆も歩き出した。
すると、二車線のうちの内側の一車線をベビーカーを押したお母さんと子供、もう一車線を老婆が塞ぐことになった。
もうこの時点では、時速50キロで青信号の交差点に向かっている自動運転の車は急ブレーキでも車を止めることはできない。急ブレーキに頼らずに走っている車を止めるには、太い銀杏の木の街路樹に車をぶつけるしかない。そうすれば、飛び出した親子も老婆も助かる。しかし、車に載っている20代の大学生5名が犠牲になってしまう。時速50キロで壁にぶつかるのと同じ状況である。老婆を引くことになれば、ベビーカーを押したお母さんも道に飛び出した子供も助かるし、大学生も軽いけがで済むであろう。
直進する車の信号が青で、速度を落とさずに交差点に接近してきた自動運転の車はどう判断するのが一番正しい(正義)なのでしょうか。
言い換えると、急ブレーキを踏んでも間に合わない状況で、どの命を優先し、どの命を犠牲にすれば、正しい判断と言えるのでしょうか。
誰を犠牲にする? | ➡ | 老人一人 |
ベビーカーの親子 | ||
自動運転の車の大学生5人 |
この判断は世界中共通なのでしょうか?避けて通れない議論は、誰の命がより尊いのかということ、それから、犠牲になる命の数が少なければいいのか?ということになると思います。
世界には様々な価値観が存在します。こうした判断の背景にも、宗教観、文化・社会的価値観、犠牲になる人がまだ社会貢献をしているのか、あるいは引退しているのか、自己犠牲の精神、他者犠牲の精神、などなどあり、唯一無二のグローバルな基準で決められないことになります。
国産車、輸入車が混在していると異なる安全運転のアルゴリズムを装備した自動運転の車が道路を走ることになります。輸出車は輸出する国の価値観に合わせてアルゴリズムを設定しないといけないことになるのでしょうか。
ここでは、自動運転のアルゴリズムを例に取りましたが、こういった考え方は未来社会には必ず必要となります。ITエンジニア、システムエンジニアはアルゴリズムを開発するのが仕事ですが、社会学の価値観を理解せずには、実装はできないことになります。ここでも、社会学と情報学の融合が必要となります。安全のためのどのアルゴリズムが、どの国の社会価値・文化価値に合っているのかを考えることが社会学XDSの領域となります。
eSportsの分野でも、ゲームの中の女性キャラクターの設定にしても、国内では、露出度が高く、巨乳で、幼い声で表現することが多いですが、欧米では女性蔑視と判断されてしまいます。ゲームのキャラクターとしては成立しません。
自然言語がアルゴリズム化できたら、それはもうこの地球から人間がいらなくなる時期の始まりだという人もいますが、それにはまだ数十年の時間が必要となるでしょう。
(※2)近未来をAIと生きる我々に取っては、未来社会を生きる人たちにとって少しでも過ごしやすくなるような、倫理観、文化価値などを考慮した問題解決のアルゴリズムを考えることが大切になるように思います。そうでないと、AIは、人間がこの世に存在するから根本的に解決すべき問題が存在すると判断し、人間をこの世から絶滅させる事が最適解だと判断するアルゴリズムを選択するかもしれません。
ーーーーーーーーーーーーーーーーーー
Should a self-driving car kill the baby or the grandma? Depends on where you're from.
The infamous "trolley problem" was put to millions of people in a global study, revealing how much ethics diverge across cultures. by Karen Hao October 24, 2018 にヒントを得て、このコラムを書いてみました。
OpenAI can translate English into code with its new machine learning software Codex 参照。
社会学部 社会学科 教授 山本敏幸
⇒ 社会学部ページ