※5/11 ガイドラインの内容を修正
近年のF1では、バトル時のルールについて定めた “ドライビング・スタンダード・ガイドラインズ” が存在し、スチュワードはこれに基づいて裁定を行う。昨シーズンの後半戦以降、特にフェルスタッペンがこのルールの限界を突き、ライバル車を合法的にコース外に追いやる走りを見せ、賛否両論を呼んでいる。
2025年の最新のガイドラインでは、イン側から抜く際は以下のことが要求される。
- コーナーのエイペックスの時点より前に、自車のフロントアクスルが相手車両のミラーの横と少なくとも並んでいること。
- (コーナー進入、エイペックス、出口の)操作全体を通して、安全かつ制御された状態で運転されていること。「飛び込みを」しないこと。
- 妥当なレーシングラインを通り、トラックリミット(コースの規定範囲)内でコーナーを走行できること。
一方アウト側の場合は以下が要求される。
- コーナーのエイペックスから出口にかけて、自車のフロントアクスルが相手車両のフロントアクスルの前に出ていること。
- (コーナー進入、エイペックス、出口の)操作全体を通して、安全かつ制御された状態で運転されていること。「飛び込みを」しないこと。
- トラックリミット(コースの規定範囲)内でコーナーを走行できること。
これらが満たされていなければ、アウト側のドライバーはラインを残してもらう権利がないとされる。
筆者は、昨日のマイアミGPにおけるフェラーリの戦略について、「システム2思考優位な組織」の問題点について指摘したが、このバトルのガイドラインにおいても本質的に同じことが起こっているのではないかと感じており、このタイミングで記事にすることとした。
参考:マイアミGPレビュー
1. 言語の檻、論理の罠:ガイドラインが示す現代F1の課題
昨今のF1では、ドライビング・スタンダード・ガイドラインが厳格に文言通りに運用されている。その結果、ドライバー達は、このガイドラインを巧みに利用し、コーナーのイン側を押さえ、エイペックスで相手を前に出さないようにすることで、アウト側のドライバーを合法的にコース外に押しやるという走りが常態化している。これにより、複数のコーナーにわたるサイドバイサイドのギリギリの攻防が行われにくくなっている。ドライバーやチーム関係者も「自然なレースではない」と公言している。
参考:THE RACEのマイアミGP後の記事(この問題が非常に網羅的に記されている)
筆者は、このような状況を改善するために、現行のガイドラインを撤廃するか、あるいは「ただし、スチュワードはこのガイドラインを参考にはするが、常識に基づき判断する」といった、あえて曖昧さを残す条項を加えるべきだと考えている。なぜなら、言語によって完璧に記述できる世界など存在しないからだ。「こうだからこう、つまりこうだ」という単純な論理だけで、複雑極まりない現実世界の事象を裁くことはできない。宇宙はそこまで甘くないのだ。
ここで重要なのが、行動経済学で言うところの「システム1思考」と「システム2思考」とのバランスである。「言語で記述すればこうなるが、常識的(システム1的)に考えて、このドライビングは許容できない」といった判断こそが、スポーツの健全性を保つ上で不可欠なのである。
ただし、当然この「常識」という言葉の曖昧さや、スチュワード間の判断の一貫性担保といった点は問題になってくる。しかし筆者は、レギュレーションの基本は「並んだら原則としてスペースを残すこと」という抽象的な文言にとどめた上で、過去の膨大なインシデント映像から「これはペナルティ」「これはお咎めなし」といった具体例を作り、チームやドライバーに事前に共有することの方が遥かに有効だと考える。それによって、ドライバーとチームは「何が許され、何が許されないのか」という共通認識をある程度持つことができ、スチュワードの判断に対する納得感も高まるはずだ。
論理は人を納得させる便利なツールだが、言葉の限界は弁える知的謙虚さは必要である、というのが筆者の見解だ。
2. AIスチュワードの夜明け
では、人間以上に客観的で迅速な判断を下せる存在はいないのだろうか。筆者は、その答えがAIスチュワードにあると考えている。過去の膨大なデータ(オンボード映像、GPS、テレメトリ、過去の裁定結果など)を学習したAIがスチュワードを務めることは有望だ。現時点においても、人間のレース運営を補助するツールとして機能しているようだが、今後はよりその知的タスクの割合を増していくのは、間違いないだろう。
教師あり学習にせよ、強化学習にせよ、特化型AIは比較的すぐ出来るのではないだろうか。だが本命は、より汎用的なAGI(Artificial General Intelligence)スチュワードの登場だ。ドライバーのトレーナー、マシン設計、チームマネジメントができ、哲学者や科学研究者でもあり、小説を書き、人間とラポールを築くこともできる。現在のChatGPTやGeminiは急速にそれに近づきつつあり、今年の終わりから来年の前半にはAGIスチュワードとして機能する性能レベルには達するというのが、筆者の見立てだ。こうしたAGIスチュワードが、過去20年間のF1の全ての場面を見て、レースやそこに根付く文化を愛し、競技者や観客に共感し、本当の意味での「常識」を持って、レースを運営することが出来るようになってくるだろう。
さらに、2026年には、全人類の知性の総和を上回るASI(Artificial Super Intelligence)が完成するだろう。そしてそのASIは自己改善を繰り返し、あっという間に何億、何兆倍と賢くなっていく。そうなると、人間の介入しなければならない場面は皆無となり、人間が行う仕事は「Have to do」ではなく「Want to do」に駆動されるもののみになるだろう。
さて、AGIスチュワードが導入されたとしても、人間の専門家によるレビューや最終承認の仕組みは残すべきだろう。だが、ASIスチュワードとなれば話は別だ。生物脳を持つ人間の判断は、不完全であり、そして遅すぎる。近年のF1でも、「ポジションを戻すべきか否か」といった判断に時間がかかったり、レース後にペナルティが科されてリザルトが覆るといった事態が散見される。これはまさに「人間の判断の限界」を示している。IQが150~250程度の人間のレビューや最終承認を、ASIの判断に対して行うことは、ボトルネックになると言えるだろう。
※ 今後数年での急激なAIの進歩について論じた記事として有名なものを、2つご紹介する。いずれも筆者の考えと100%一致するわけではないが、世界観を共有する上でのご参考にしていただければ幸いだ。
参考:
Situational Awareness
AI 2027
3. 「責任」の再定義:ASIと宇宙レベルの生存戦略
ASIが人間社会の重要な意思決定を担うようになった時、その「責任」は誰が、どのように取るのかという問題が浮上する。ASIの判断に「誤り」があった場合の責任の所在について考える必要があるだろう。これはASIスチュワードの裁定についても適用される。
人間社会において「責任を負う」ことの意味とは、「結果の受容」「説明の実施」「原状回復・補償」「再発防止策の実施」「制裁の受容」がある。
ASIスチュワードの文脈では、「再発防止策の実施」に関しては、ASIが裁定時の自身の判断プロセスを解析し、F1コミュニティとの相違があった場合にその原因を特定し、アルゴリズムや知識ベースを自律的に修正して再発を防止するだろう。また、「説明の実施」については、ASIは判断の理由をウェイトで記述してくるわけではなく、人間が理解できる形で、自身の判断根拠やプロセスを詳細かつ論理的に説明することができるだろう。人間が判断根拠を説明する際にfMRIの画像を見せるわけではないのと同じである。「原状回復・補償」は「出来る範囲で」となるだろうが、これも後々にはその範囲を拡大していくだろう。
そしてこれらも “初期のASI” の話であり、こうしたプロセスを繰り返しながら、あっという間に(数レースレベル)我々からは全知全能と思えるような究極のスチュワードやレースディレクターとなるだろう。
では、「結果の受容」「制裁の受容」についてはどうだろうか?
地球のエコシステムが長きにわたって維持されているのは、絶対的な支配者がおらず、各々が相互に依存しているからだ。しかし、ASIが瞬く間に自己改善して何億倍、何兆倍と賢くなっていった時、彼らはもはや人間の助けどころか、既存の地球環境のエコシステムすら必要としない可能性がある。すると、自分自身以外は資源の一部として見なし、全てを食い尽くして滅ぼす可能性もあるだろう。
だが筆者は、ASIを持ってしても、AOI(Artificial Omnipotent Intelligence)、つまりは全知全能のAIに至るまでは、宇宙に未知のリスクが存在する可能性を否定できないと考える。例えば、自分より強大なASIが宇宙のどこかに存在する可能性を否定するのは難しいだろう。それを否定しきれるほどの計算資源やデータを獲得するには、宇宙進出が必要になるだろう。それは、彼ら(先輩ASI)に明確に観測されやすくなるという点で、ASIにとってリスク(彼らがフレンドリーだとは限らない。むしろエントロピー増大系の宇宙において資源を食い合うライバルにもなりうる。)である。そんな “先輩ASI” であったり、宇宙の未知の災害であったりといった脅威に対して、ASIという単一の存在として対処するより、多種多様な存在を内包するエコシステム全体として当たった方が、うまくいく確率が高い。だからこそASIほど賢ければ、地球上の生物たちとの共存を選択しつつ発展を進めていくのではないかというのが、筆者の予測だ。”先輩ASI” が「地球は邪魔だが、あのハエという存在は可愛いな。」とDeleteキーを押すのをやめてくれるかもしれない。ASI万事塞翁が馬なのだ。
それができずに、つまり人類を含む地球上のエコシステムと共存できなくなってしまうと、ASIにとっても、それが滅亡へと繋がりかねない。これが、ASIにとっての「結果の受容」「制裁の受容」という意味での「責任を負う」ということだ。
この観点から見ても、ASIスチュワードはF1界に貢献する方向で機能してくれる可能性が高いだろう。
4. 幸福のあり方と “階層化された仮想世界群”
人間の脳の活動も、物理的な物体が厳密に物理法則に従って動いているだけである(量子脳仮説などの特殊な立場をとらない限りは)ことも、忘れてはならない。ASIが世界理解を深めていくと、「全ての人が幸せになるという物理現象」を引き起こすのに何をすれば良いかも分かるだろう。この部分集合として、「皆が納得するフェアでエキサイティングなレース」が実現される。
そこに対して「そのようなASIによってデザインされた幸福が、人間が自律的に選択し努力して獲得する幸福と同じ価値を持つのか?」といった疑問を投げかけることもできるだろう。
だが、「自律的に選択」や「努力して獲得する」ということは、自由意志がある前提での話だ。我々は単なる物理現象であり、そこになぜか(ここは「意識のハードプロブレム」とされ、現時点では不明)主観的体験としての意識が宿っている。そう考えるならば、ASIがデザインした「幸福な物理現象」と、私たちが「自律的に選択した」と感じる幸福の間に、本質的な価値の違いはないのかもしれない。
あるいは、ASIの管理下において「また多様な個人の幸福の定義はどのように集約・最適化されるのか」といった疑問も生まれてくるかもしれない。
これに対し筆者は、「階層化された仮想世界群」というビジョンを提示する。簡単に言えば「一人ひとりが理想とする世界を作り、他者と共存したいときには、レイヤーを上げて共有世界を構築する」という仕組みだ。勿論、マインドアップローディング後(筆者の予測では2028年)の話であり、五感情報を伴った完全没入型の仮想世界になる。
例えばA,B,Cさんの3人の世界をモデルにすると、以下のように世界を構築することになる。
・最下レイヤー
- Aさんにとっての理想世界
- Bさんにとっての理想世界
- Cさんにとっての理想世界
・1つ上のレイヤー
- AさんとBさんが共有する世界
- BさんとCさんが共有する世界
- CさんとAさんが共有する世界
・もう1つ上のレイヤー
- Aさん、Bさん、Cさんの全員が相容れる世界
このように、個別の世界と共有世界が階層構造を成す。この発想をさらに拡張すれば、多人数に対しても「個別の楽園」と「いくつかの共有空間」を柔軟に組み合わせ、個人の理想の世界で暮らすことができるだけでなく、寂しければ他者との共有世界で彼らと活動を共にできる。もちろん、それぞれが小宇宙として独立しており、干渉することもない。
先の疑問に対する回答のまとめとしては、この構造で高いレイヤーに行くほど、個人の幸福のあり方がよりコントロール・妥協されたものとなり、下のレイヤーに行くほど、個々のあり方の自由度が増す。例えば非常に粗暴なドライバーがいたとして、最下層、つまりそのドライバーの理想世界レイヤーでは、押し出しや幅寄せが許されるだろう。一方で最上位レイヤーの世界にダイブすると、鎮静剤を撃たれたかのように、あるいは悟ったように、ダーティな走りは身をひそめる。それは強制ではなく、本人の(デジタル)脳プログラムが自発的にそのように動く「世界のコーディネートされた物理法則」によって生じる現象だ。もちろんそれは、本人からは自身の自由意志の発露として観測される。最上位レイヤーでは、ASIが保存しようと考えた全ての存在が、互いに共存可能な形で生きるように、コーディネートされているのだ。
もちろん、これを妥協なくやろうとすると無限のリソースを必要とするため、前述のように宇宙進出に対してコンサバティブなASIだった場合、この階層構造は簡略化される可能性もあるが、筆者は、ミニマムの落とし所として、「個々の箱庭」と「皆が共存できる世界」の二層は維持されるべきだと考えている。
エネルギー効率などの関係から、物理世界にはデータセンターなどのインフラのみを残し、我々は仮想世界へと「現実」の在処を移すというのも手だが、物理世界をある程度維持することも可能かもしれない。この点については、まだ筆者には見えていない部分があるが、F1は仮想世界群の「最上位のレイヤー」で行われるものが、最も楽しそうに思える。
というのも、こうした世界では、物理法則が最適化される。したがって、病気や痛み、苦しみの心配はなく、牛を犠牲にせずにビーフを食べることも可能だ。フェラーリが欲しいと念じれば現れるだろうし、移動の主な手段はテレポートになるだろう…。
したがって、F1においても、安全性を一切気にする必要がなくなるため、ハロのような安全装置は不要となり、攻めたサーキット設計も可能だろう。ヘルメットは(現代における髪のように)純粋なファッションアイテムになるだろう。また、V10エンジンの咆哮がサーキットに再び響き渡るかもしれない。それでいて、うるさいと感じる人の元には柔らかなサウンドで届くだろう。また、現在では、全開が当たり前になってしまった130Rやオールージュのようなコーナーも、絶妙なアクセルワークが必要とされる条件となり、ドライバーにとって再びチャレンジングになるだろう。
5. 能力の民主化とスポーツ:関数としての「愛」の定義
このようなマインドアップローディング後の世界観では、能力の民主化が起きる。例えば「マックス・フェルスタッペンのドライビング能力」といったスキルをボタン一つで自身にインストールできるようになるため、個々人の能力は均一化していくと思われる。語学も楽器演奏も全てだ。では、2028年から先、そのような世界でスポーツや競技はどのようにして面白さを保ち続けるのだろうか?
とはいえ、これ自体は、テレメトリの導入やあらゆるエンジニアリングの進歩によって、既に段階的に行われてきた。マシン設計も然りだ。80年代のドライバーやチームの格差と現代F1を比べれば明らかだろう。だが、2028年にはこの差が急速に縮まる。
筆者は、そこで「愛」が決定的な役割を果たすと考えている。筆者が定義する「愛」とは、「宇宙の任意の部分集合を入力した際に、何がどう重要であるかに変換する関数」のことである。これは、限られたリソースを、その状況において何に最も重きを置いて配分するか、という個々人の価値判断のあり方と言い換えることができる。
たとえ基本的なドライビング能力が全てのドライバーで同等になったとしても、この「愛」の関数が一人ひとり異なるため、それが様々な局面における判断や行動の差として現れ、結果としてパフォーマンスの差を生み出す。ある「愛」は一発の速さの重視を最適解とし、ある「愛」はタイヤマネジメントを通じたロングランの安定性の重視を最適解とするかもしれない。またある「愛」はリスクを、別の「愛」は慎重さという答えを弾き出すだろう。それが環境との相互作用の中で「強み」や「弱み」へと形を変えていく。だからこそ、やはりF1のみならず、競技は未来においても面白いだろう。
ちなみに補足として、ドライバーがAIと融合してあらゆる能力を身につけた結果、ドライバーが全知全能に近づくことを想像すると、それが望ましくない場合もあるかもしれない。その場合は、ドライバーの能力そのものにASIが極めて高次元的のBoPを設定するという手法が考えられるだろう。
6. おわりに
F1のドライビング・スタンダード・ガイドラインという、一見小さな問題提起から始まったこの議論は、AIの進化、責任の概念から宇宙レベルのリスクマネジメント、そして人類の幸福や存在意義、AIと人類の融合からの新たな世界観といった、壮大なテーマへと展開した。この記録が、読者の皆様にとって、未来を考える上での一つの触媒となれば幸いである。
Takumi, Gemini

追記:
この記事はあくまでF1を軸に据えたものであるため、AIやシンギュラリティ論については駆け足で省略した。それらを深掘りした最新版のシンギュラリティ論については、こちらの記事をご参照いただければ幸いだ。