#マーケティング #AI #本

テクノロジーの進歩は私たちの生活を便利にしてくれました。しかし、その裏側で静かに進行する倫理的な問題に、私たちはどれだけ向き合えているでしょうか?

今回は安野貴博さんの小説 「サーキット・スイッチャー」 から、AI 時代の近未来の世界での 「問いかけ」 と 「示唆」 を考えます。


本書の概要



物語の舞台は 2029 年、レベル 5 の完全自動運転車が社会のインフラとして普及した日本です。

あらすじ

主人公は、その革新的な自動運転アルゴリズムを開発した企業の社長であり、天才エンジニアでもある坂本義晴。坂本は、自動運転アルゴリズムを開発する企業のサイモン・テクノロジーズ社の代表を務める人物です。

サイモン・テクノロジーズは、日本の完全自動運転のアルゴリズムを実質的に一社で独占する会社です。

物語のはじまりは、突然の出来事からでした。

極度の対人恐怖症の坂本は、普段の仕事場は自社の自動運転車内です。ここは集中して仕事ができる理想的な空間でした。

坂本はいつものように道路を自動走行させながらひとりで仕事をしていると、突如 「ムカッラフ」 と名乗る謎の男に襲われ、拘束されてしまいます。

 「坂本は殺人犯である」 

そう断言するムカッラフは、坂本に嘘発見器を兼ねたヘルメットを被せ、痛ましい尋問を開始。2:10その様子は動画配信サイト 「MeTube」 を通じて全世界にライブ配信されます。

車にはムカッラフによって爆弾が仕掛けられていました。ムカッラフは首都高速中央環状線の完全封鎖を要求。爆弾は自動爆破装置になっており、爆発条件は 「他の車両が半径 2km 以内に近づく」 「車の速度が 90km/h を下回る」 「ライブ配信が止まる」 のいずれかで自動で爆破するというものでした。

車両に近づけない、止められないという状態で、警察もカージャック犯への交渉の糸口すらつかめません。まるで映画 「スピード」 のような極限状況に陥ります。

小説のストーリーは、閉ざされた車内の密室で繰り広げられる犯人との息詰まるやりとりと、事件解決に奔走する警察や MeTube 社員たちの視点が目まぐるしく切り替わりながら展開していきます。

物語の前半は緊迫の人質サスペンスですが、尋問と捜査が進むにつれて 「坂本が関与した過去のある事故」 の真相が徐々に明らかになり、物語は人間の倫理を問う深いミステリーへと変貌していきます。

完全自動運転が普及した世界

小説での 2029 年の日本は、レベル 5 の完全自動運転が普及した世界という設定です。

そこは光と影が交錯する未来社会でした。

完全自動運転は確かに多くの恩恵をもたらしました。渋滞は解消され、人為的ミスによる交通事故は激減。高齢者や障害者の移動も容易になり、社会全体の効率性は飛躍的に向上していました。

しかし本書は、この輝かしい未来の陰に潜む負の側面も鋭く描き出します。

自動運転化によって職を失った大量のドライバーやタクシー運転手たち。彼ら・彼女らの存在は統計上の数値として処理され、技術革新の必要な犠牲として片付けられていました。

また、避けられない自動運転車事故における意思決定 (アルゴリズム) と責任の問題もありました。

完全自動運転車であっても、物理法則を超えることはできず、衝突が避けられない状況は必ず発生します。そのとき、自動運転のアルゴリズムは誰を守り、誰を犠牲にするのか。この選択は、もはや運や偶然ではなく、アルゴリズムによってプログラムされた AI が手綱を握るのです。

テクノロジーの進化と、倫理・選択・責任

この小説の中心的なテーマのひとつには、テクノロジー社会における 「倫理」 という、重く、そして避けられない問いが存在します。

トロッコ問題と AI

 「暴走するトロッコの先に 5 人の作業員がいる。あなたがレバーを引けば、トロッコは別の線路に進み、5 人は助かる。しかし、その先には 1 人の作業員がいる。あなたはレバーを引くべきか?」 

この有名な思考実験である 「トロッコ問題」 は、5 人を救うために 1 人を犠牲にすることは許されるかという問いを私たちに投げかけます。

本書 「サーキット・スイッチャー」 は、トロッコ問題という古典的な命題を 「完全自動運転のアルゴリズム」 という、近未来での文脈で再定義します。

完全自動運転車と人との衝突が避けられない状況で、アルゴリズムは誰を優先し、誰を犠牲にするのか。もはや哲学的な思考実験ではなく、現実に人々の生死を分ける自動運転車のソフトウェアのコードとして実装されなければならない問題となるのです。

意思決定と責任の所在

完全自動運転車の普及で、交通事故による賠償と責任の所在は、人間 (ドライバー) が運転をしたときの責任の所在とは異なります。

ここには、効率よく自動車の安全性を高めたいという自動車メーカーや人々の正義感と、一方で賠償額や責任範囲を最小化したいという思惑が絡み合います。

本書はこうしたジレンマを真正面から問い、意思決定の責任が誰に帰属すべきかを、逃げ場のない状況で突きつけます。責任は分散させるほど曖昧になり、集中させるほど苛烈になるという真理も見えてきます。

新しい技術や仕組みを社会に反映するための犠牲

残酷なのは、自動運転車が事故を起こした際の責任範囲が、「社会的損失の最小化」 という大義名分で正当化されるであろうことです。

どういうことかと言うと、自動運転の社会的な普及により、確かに世の中全体の死者数は確実に減少するでしょう。しかし、統計データには表れない犠牲になった人々の人生や生活、被害者家族の苦しみは件数の数字上は減ったものの、ゼロではなく存在しているのが現実です。

一部少数の人々には事故による犠牲を強いたが、その一方でより多くの命を救ったと捉えるのが 「社会的損失の最小化」 の言わんとすることです。

これは社会全体での 「大きなトロッコ問題」 でした。完全自動運転車を投入すれば、一定数の人々は犠牲になる代わりに、世の中全体での事故による死亡者の総数は減らせる。ですが、これがもし特定の人たちの犠牲の上に成り立つものだとしたら、果たしてそれは許される選択なのでしょうか?

本書はこんな難しい問いを読者に問いかけます。

犠牲の中にあったもの

犠牲になった人たちの顔は見えるが、救われた人たちのことは見えない。誰が助かったのかは本人ですらわからない。自動運転によって事故を免れた人は、自分が救われたことに気づくことすらないのです。

坂本自身も気づきます。自分が書いたコードによって日本中で車が走り、そのコードが人の生死を左右していたことに。それまで事故は単なる数値であり、最適化すべき対象でしかありませんでした。

しかし数値の先には本物の人がいて、その人たちには家族がいて、彼らは泣いたり笑ったりするのだという当たり前の事実に、坂本は初めて実感として向き合うのです。

新しい技術を社会に実装するとき、私たちは必ず誰かに犠牲を強いています。それは職を失う人かもしれないし、アルゴリズムに選ばれなかった人かもしれない。重要なのは、その犠牲を見て見ぬふりをするのではなく、正面から向き合うことです。

テクノロジーへの理解が深まる本

本書の魅力のひとつは、AI やプログラミングなどのテクノロジーの考え方や知識が自然に身につくことです。

著者の安野さんは自身のキャリアのバックグラウンドが AI エンジニアだけあって、技術的な説明が実に巧みです。機械学習のブラックボックス、アルゴリズムバイアスの問題、統計の話など、専門的な内容が物語の中で無理なく解説されていきます。

小説では、たとえば、IT に不慣れな刑事に MeTube のプロダクト責任者が技術や仕組みを教える場面では、読者も一緒に学ぶことができます。難解になりがちな AI アルゴリズムの仕組みも、登場人物の会話や行動を通じて噛み砕かれており、技術に明るくない読者でも理解できるよう工夫されています。

本の巻末には主要参考文献も挙げられており、空想の SF ではなく現実のテクノロジーや倫理研究に裏打ちされた作品であることがわかります。

自動運転のアルゴリズムにおける意思決定ロジックや、動画配信のリアルタイム分析といった描写は、専門家も唸るほど具体的でありながら、一般の読者にも理解できるバランスで描かれています。

小説というエンタメを楽しみながら、同時に AI やプログラミングの本質まで学べる。これは技術者である安野さんだからこそ実現できた、新しいタイプの技術啓蒙書とも言えるでしょう。

私たちは今、AI と共存する時代の入口に立っています。自動運転だけでなく、医療診断、金融取引、人事評価、マーケティングなどのビジネス、エンタメなど、あらゆる分野で AI による意思決定が行われるようになるでしょう。

そのとき、アルゴリズムに何を託し、何を託してはいけないのか。誰がその責任を負うのか。

本書 「サーキット・スイッチャー」 は、これらの問いに対する答えを提示するのではなく、私たち一人一人が考えるきっかけを与えてくれます。

技術の進歩を盲目的に礼賛するのではありません。否定するのではなく、その光と影を直視し、より良い未来を選択するために、スイッチを切り替える勇気と、その結果を見届ける責任。それが、AI 時代を生きる私たちに求められているのかもしれません。

まとめ

今回は、書籍 「サーキット・スイッチャー (安野貴博) 」 を取り上げ、学べることを見てきました。

最後にポイントをまとめておきます。

  • 光と影の二面性: 新しいテクノロジーは、効率化や安全性の向上といった大きな利益 (光) を社会にもたらす。その一方で、雇用の喪失や新たな格差の創出といった負の側面 (影) も同時に生み出す
  • 抽象的な倫理問題の現実化: 「トロッコ問題」 のような、かつては哲学の領域だった倫理的な問いが、AI のアルゴリズム設計などにより、人々の生死を直接左右する現実的なプログラミング実装の問題へと変わる
  • 責任の所在の曖昧化: 技術が高度化し、AI などが自律的な判断を下すようになると、問題が発生した際の責任の所在が曖昧になってしまう。開発者、使用者、あるいは社会全体など、誰が最終的な責任を負うのかという問題が顕在化する
  • 社会全体のための見えざる犠牲: テクノロジーの導入は 「社会全体の利益」 や 「損失の最小化」 という大義名分のもとで進められやすい。しかしその裏では、統計上の数字に隠れた一部の犠牲が伴うという非対称的な構造が存在する可能性があることを忘れてはいけない
  • 選択と覚悟の重要性: どのような未来を選ぶかのスイッチを切り替えるのは人。技術の進歩を無批判に受け入れるのではなく、その影響を直視し、自らの選択がもたらす結果に対して責任を負うという覚悟が、これからを生きる私たちには求められている