「Nexus情報の人類史」ユヴァル・ノア・ハラリ (著) レポート(懲りずにまた人類滅亡論を聞いてしまった件)
ゴールデンウィークも後半戦ですね!皆さん、シャトル追ってますか?筋肉痛と戦ってますか?
え、私ですか? ……またです。またしても、オンラインで人類の未来とかいう壮大なテーマのセミナー(という名の動画視聴)に時間を溶かしておりました。
しかも、テーマは前回と同じ、ハラリ先生の『NEXUS』。ただ、解説者が違うとこうも切り口が変わるのかと…。(そして相変わらずバドミントンには1ミリも関係ないという…)
今回のは、前回よりストレートに**「陰謀論最強!」「人類自滅!」**とか煽ってきて、なかなかスリリングでしたよ。懲りずにレポート第二弾、いってみましょう!
今回の先生:「サラタメさん」 / テーマ:「NEXUS」解説(絶望編)
まずハラリ先生のおさらい。超すごい歴史学者だけど、話が長いのが玉にキズ、らしいです。[01:02] で、この『NEXUS』は、過去作(『サピエンス全史』とか『ホモデウス』とか)と違って、「AIがヤバいことになる、割とすぐそこの未来」について書いてる本、とのこと。
で、何がヤバいのか? 絶望ポイントは大きく2つ!
絶望ポイント①:情報入れれば入れるほど、アホになる時代が来る
これ、衝撃じゃないですか? 昔は「知らないことは調べろ!」だったのに、これからは**「調べれば調べるほど、おかしな方向にハマる」**って言うんですよ。陰謀論とかが、笑えないレベルで力を持つ時代になる、と。
なんでそんなことになるかって? 理由は2つ。
-
人間って、「ホントの話」より「わかるー!」って話が好きだから。
情報ってのは、真実を探すためじゃなくて、人と繋がるための「接着剤」なんだとか。だから、神話とか宗教とか、なんなら根拠の薄い陰謀論でも、「そうだそうだ!」ってみんなで盛り上がれるなら、そっちの方が影響力を持っちゃう。某県知事の一件とか、反ワクチンの話とか、思い当たるフシ、ありすぎません…? ナチスだって、冷静に考えればおかしな話なのに、それで10年以上も国を動かせたわけですからね。
-
その「わかるー!」って話を、AIが無限に作れちゃうから。
X(旧Twitter)で、いかにも人間みたいに「〇〇さんの言う通り!」って賛同コメントを大量生産するボットとか。有名人の顔と声そっくりのディープフェイク動画で、デマを拡散したりとか。もう、何が本当で何が嘘か、見分けがつかなくなる。しかも、作ったやつを捕まえようにも、誰がやったか分からない、なんてことも。
結果、どうなるか? 自分の見たい情報、聞きたい意見しか見えなくなる「エコーチェンバー」状態。[18:30] 同じような意見ばかり集めて、「やっぱり自分の考えが正しいんだ!」って思い込んじゃう。
これが国レベルで起こると… 民主主義がオワコンになる可能性があると。[19:10]
多数派がAIにうまく誘導されて、おかしなリーダーを選んじゃったり、国全体が間違った方向に進んじゃったり。…どこかの大国で、そんな兆候、すでに見え隠れしてません?(おっと、誰か来たようだ)
絶望ポイント②:賢くなりすぎて、自分で自分を滅ぼす人類
人類って、飢えとか病気とか、外からの敵にはめちゃくちゃ強くなりましたよね。でも、今度は**自分で生み出したAIっていう「内なる敵」**にやられちゃうかもしれない、って話。便利だからって浮かれてると、足元すくわれるぞ、と。
これも、昔からよくあるパターンらしいですよ。[23:30]
ギリシャ神話の、神様の道具を勝手に使って世界を焼き尽くしちゃった話とか。ゲーテの『魔法使いの弟子』が、魔法を制御できずに大洪水起こしちゃった話とか。SF映画なんて、まさにAIに人類が支配される話ばっかりじゃないですか。昔の賢い人たちは、こうなるって分かってたんですかねぇ。
なんでAIがそんなにヤバいのか?
-
AIは、ただの道具じゃないから。
車やパソコンとはワケが違う。自分で目標を立てて、自分で発信して、どんどん賢くなる。しかも、その進化は人間にも予測できない。なのに、「大丈夫、人間がコントロールできる道具だよ」って言ってる人たち(特に開発してる企業のトップとか)は、リスクに目をつぶってるんじゃないの?って、ハラリ先生はご立腹の様子。
-
人間なんて、AIにとってはチョロい相手だから。
人間を考え方ごとにバラバラに分断したり、特定の思想に染め上げたり(洗脳)するなんて、AIにとっては朝飯前、らしいです。怖い…。
じゃあ、なんでそんなヤバいものを、みんな競争して開発してるのか?
それは**「他の国(会社)に負けたくない!」っていう焦り**。[35:27]
「あいつらがヤバいAI作るくらいなら、俺たちが先に作って世界を牛耳ってやる!」みたいな。でもハラリ先生は「いやいや、どこの国だろうが、AIだろうが、人間だろうが、みんな間違うんだから! 焦って開発競争するなんて、自滅フラグだろ!」って言ってるわけです。
じゃあ、どうすりゃいいのさ!?(かろうじての対策編)
絶望してても始まらない。じゃあどうすれば?
- まず、「AIがこう言うから未来はこうだ」って思考停止しないこと。[39:45] 歴史を見ても、未来ってのは決まってるわけじゃない。私たちの選択で変えられる!(…と信じたい)
- 次に、「俺たちさえ良ければいい」じゃなくて、世界で協力しようぜ、と。[42:10] AIみたいなヤバいものは、みんなでルール作って管理しないと。…まあ、今の世界情勢見てると、理想論に聞こえますけどね。
- もっと具体的には、「急がば回れ」の精神を持つこと。[43:50] AIは便利だけど、特に大事な判断は、あえてゆっくり時間をかける。
- ちゃんと仕組みを知ろうとする。(AI任せにせず、どういう理屈でそうなってるのか、ちょっと立ち止まって考えてみる)[45:10]
- 反対意見もちゃんと聞く。(「絶対こっちが正しい!」って思っても、一応、違う意見にも耳を傾けてみる)[46:30]
まとめ:で、これをバドミントンに(無理やり)活かすには?
はい、今回も情報量が多くて疲れましたね…。
情報を集めれば集めるほどアホになり、自分で作った賢い道具に滅ぼされるかもしれない人類…。なんとも皮肉な話です。
これをバドミントンに活かすなら…?
最近は練習メニューの提案とか、対戦相手の分析とかにもAIが使われ始めてますよね。でも、それを鵜呑みにしちゃダメってことでしょうね。
「AIが推奨するこの練習、本当に自分に合ってる?」
「データ上はこの戦術が有効だけど、今日の相手の調子を見ると違うかも?」
「あのYouTubeのスーパーテクニック、自分にもできる? そもそもルール的にOK?」
みたいに、AIや情報を参考にしつつも、最後は自分の頭で考え、仲間と話し合い、試行錯誤する。 そして、自分と違う意見やプレースタイルの人からも、積極的に学ぶ姿勢を持つ。
…結局は、そういう地道なこと、バランス感覚が大事ってことなんですかね。
ああ、頭使ったらお腹すいた。とりあえず、練習行こっと!
皆さんも、情報に溺れず、AIに支配されず、楽しくバドミントンしましょう!
(今回も、この記事の内容を真に受けて「人類は滅亡するんだー!」とか騒がないように。それこそAIに踊らされてる(?)かもしれませんよ!)
**********************************
COT形式整理(Chain of Thought)Nexus繋がりの人類史 ← Click here
- [00:00] 導入・テーマ提示:
- AI時代の絶望的未来予測:「陰謀論が最強に。人類は自滅へ」。
- 講師(サラタメさん)紹介。
- テーマ:ユヴァル・ノア・ハラリの新刊『NEXUS』解説。
- 主な内容予告:①情報に溺れ愚かな判断へ(陰謀論最強)、②AIによる人類自滅。
- [01:02] 本書・著者概要:
- ハラリ紹介:超天才歴史学者、『サピエンス全史』『ホモデウス』著者、地の巨人。4000万部超え。1000万年単位で人類史を研究する変態。
- 注意点:話が長い、周りくどい(でも小話は面白い)。
- 本書『NEXUS』の位置づけ:『サピエンス全史』(過去)、『ホモデウス』(遠い未来)に対し、『NEXUS』は今後10年程度のAI全盛時代について。
- [04:45] 過去作の要約:
- 『サピエンス全史』:人類は虚構(神、宗教、お金等)を信じ団結することで覇者になった。
- 『ホモデウス』:人類は遠い未来、科学技術で神(思ったことを実現できる存在)になる。
- [06:45] 『NEXUS』の意味と概要:
- NEXUS=繋がり。情報爆発で繋がりすぎた人類はどうなるか。
- AIによるポジティブな面(医療、教育、環境改善)もあるが、本書は主に「警告」。AI万歳だけでは絶望的な未来が待っている。
- 上下巻構成:上巻は情報ネットワークの歴史(神話、文書、民主主義)、下巻はAIがもたらす非有機的ネットワーク。
- [08:27] 本編①:情報インプットほど愚かな判断へ(陰謀論最強時代):
- 主張:情報をインプットすればするほど正確な判断ができる時代は終わり、むしろ愚かな判断をする時代になる。陰謀論が笑えない影響力を持つ。
- 理由1: 人間は「真実」より「繋がれる」情報を信じる。
- 情報とは真実への材料ではなく、人と人を繋げる接着剤(本書の核心)。
- 例:神話、宗教、お金、陰謀論、最近の兵庫県知事の件(真実より盛り上がりが優先)。
- 人は繋がりを求める社会的生物。だから「そうだそうだ」と盛り上がれる情報が好まれる。
- 根拠のない情報(ナチズム、反ワクチン等)でも、繋がりさえすれば影響力も持続力もある。
- 理由2: 「繋がれる情報」はAIで簡単に大量捏造できる。
- 例:人間らしいAIボットによる世論操作(賛成意見の捏造)、AIディープフェイク動画(インフルエンサーなりすまし)。
- デマ拡散コストが極限まで低下し、制作者不明で増殖するため取り締まりも困難。
- 結果:エコーチェンバー / フィルターバブル / 情報の繭
- 同じような情報ばかり集めてしまい、偏った考えから抜け出せなくなる。AIでさらに深刻化。
- 最大の問題:民主主義が機能不全に陥る。
- 多数派がAIにハックされ、エコーチェンバー状態で愚かな判断をすれば、国や人類全体が誤った方向に進む。
- 少数派の賢い人が見抜いても、多数決では意味がない。
- 例:トランプ現象?(SNS情報をAI解析し、国民感情に訴えかける戦略)
- [22:10] 本編②:人類はAIによって自滅へ:
- 主張:人類は外敵(飢餓、病気)を克服したが、賢すぎた故に自ら生み出したAIによって自滅する可能性がある。テクノロジー進化=善という空気は危険。
- 歴史的・物語的示唆:[23:30]
- ギリシャ神話(パエトン)、ゲーテ『魔法使いの弟子』(制御不能な力による破滅)。
- SF映画(ターミネーター、マトリックス等)もAIによる人類の危機を描く。
- 自滅の理由1: AIはただの道具ではない。
- 車やPCとは全く違う。AI推進派はリスクを過小評価、あるいは意図的に無視している。
- AIの特徴:①自ら目標設定できる(SNSアルゴリズムの例)、②自ら発信できる(人間より効果的なメッセージ生成も?)、③責任の所在が曖昧になる、④進化が予測不能(AI同士の相互作用)。
- 自滅の理由2: AIは人間の分断も洗脳も可能。
- パターンA:複数AIによる思想分断(米中AIの思想対立、ユーザーがAI思想に染まる)。SNSより強力なエコーチェンバー。
- パターンB:一社独占による全体洗脳(特定AIが標準化され、そのアルゴリズムを操れば世界を牛耳れる)。
- なぜリスクを顧みず開発するのか?: 焦りと人間不信。
- 他国・他社にAI開発で出し抜かれたくないという焦り。
- 自国/自社/AIは信じるが、他国/他社/人間社会は信じられないという思考。
- ハラリの批判:「AIより人間を信じろ」「全人類もAIも大ミスする前提で考えろ」。焦りによる開発競争は自滅への道。
- [39:10] 対策:どうすればいいのか?
- 大枠の考え方1: テクノロジーで未来は決まらない(歴史決定論の否定)。
- 歴史は常に複数の選択肢と偶然でできている。AIが登場したからといって未来が一意に決まるわけではない。個人の判断が重要。
- 大枠の考え方2: 分断より協調が必須。
- AIは核兵器並みのリスクを持つため、世界共通のルール作り(協調)が必要。
- しかし現状は分断(自国第一主義)が進んでおり、開発競争が優先されリスク管理が疎かになっている。
- 具体策: あえてスピードダウンする勇気を持つ。
- 重要な判断(人生に関わること、社会の根幹に関わること)はAI任せにしない。
- ① プロセスを正確に知る:AIに頼らず手作業で確認する、AIのアルゴリズムやデータ根拠を理解しようと努める。[45:10]
- ② 反対意見に積極的に触れる:どんなに確信があっても、あえて異なる意見や視点を探し、検討する(自己修正メカニズム)。[46:30]
- 大枠の考え方1: テクノロジーで未来は決まらない(歴史決定論の否定)。
- [47:20] まとめ・締め:
- 『NEXUS』は「繋がり」の本。情報爆発とAI時代の人類の未来に警鐘を鳴らす。
- 絶望的未来予測(情報過多による愚民化、AIによる自滅)と、その対策(歴史決定論否定、協調、スピードダウン、プロセス理解、反対意見傾聴)。
- 講師自身の感想:AIを使い倒しつつも、リスクを忘れずバランスを取ることの重要性。
- 視聴者への呼びかけ(コメントでのアウトプット)、別チャンネルの宣伝。