人工知能にまたブームが来て、今度は本物っぽいなと感じています。

前回のブーム(人工知能学会が出来た頃)に人工知能という名のついた部署の仕事をしていたことや、深層理解がやりたくて留学とか考えてたことを思うと、「いよいよ時代がやって来た」という感じがします。

とは言え、いろんな事情から出遅れてしまって、指をくわえて見てるだけ… の時代が長くなってしまいました。

それはそれで残念なことなのですが、お陰で見えて来たことがあって、それが表題のことです。

個人的なバックボーン

新卒で入った会社はFORTRANで技術計算とゆーか設計のサポートをする会社でした。 「設計のサポート」とは曲者で… というのは、また何かの機会に。

その次の会社は前々職のテレビ局なのですが、入社してしばらくしてから某大手メーカとの合弁会社の奴等と一緒に新人教育を受けて、そこでCOBOLを学びました。 COBOLはそれまで距離を置いて来たものでしたが、自分の知らない言語を知るのは悪くない経験で、4つか5つ目に習得した言語となりました。

新しい言語を覚えることで「見える世界が拡がる」ことに気がついた私は、なんとなくLISPに触れます。 「なんとなく」と言いましたが、多分RAMに「BASICの次はLISPだ」みたいな記事があったのを読んだからじゃないかと思います。 まぁこの雑誌はそのちょっと前には「BASICの次はPascalだ」みたいな記事が出ていたので、疑わしいことだとは思ってましたけど。

「LISPなんて何に使えるんだろう」とか思っていたのですが、世の中には数式処理システムなんてものがあって、技術計算(たとえばFEMやFDMのスキーム設計)にある単純な式変換が計算機でできるんだと知って、また見える世界が拡がったように思います。

LISPは当時は「人工知能のアセンブラ」とか言われていました。 それはいいとして、じゃあ「人工知能の高級言語」って何だよ? となるのですが、それはPrologとかを指したようです。 ちょうど世の中では、前回の人工知能ブームが起きる直前くらいでした。

LISPやるにも手元に処理系がないのでLISPの処理系を書き始めた頃に、前回の人工知能ブームが来ました。 ちなみにPrologもやろうと思った時に手元に処理系がなかったので、自分で書きかけてました。 そんな時代だったのです。

私はそこで「ブーム」の中にあったプロダクションシステムにはあまり興味を持てず、なぜかRoger C. Schankのやっている方向に興味を持ったものです。 今はデザインの本とか政治活動の方が有名になってしまった、Donald A. Normanは元々は認知科学の人なのですが、その本とか読んでました。 後年娘(某社のUIデザイナ)がやっぱりノーマンの本を読んでたりして、なんか不思議な感じがしました。

私はプロダクションシステムのように「人間がルールをコード化して教える」ことよりは、「プログラムが勝手に事象から学習するメカニズムを考える」ことの方が面白かったわけです。 ですから、子どもの成長を間近で見るとか、とても面白かったものです。

後に適当な「会話プログラムを作る」という遊戯を始めて、「自己学習的に単語や文法を習得するのはどういったことだろう」とか考えてた頃に、文字や単語や文に確率とかベクトルとか必要だなとか気がついて、当時IPAに勤めていた某氏達と世間話のネタで「これからの文章処理にはfloat演算が重要」なんて話をしてました。

通算3つ目の全文検索エンジンを書いている時でもあったので、全文検索に「意味ベクトル」を使うとか、文章からいかにして「意味ベクトル」を抽出するかとか。 「知識は意味ベクトルの集合なのか」「意味ベクトルのネットワークってどんなんだろう」とか。 そういったことを考えたりしていました。

そんなわけで、前回のブームと今回のブームの両方を、割と近くで見ていたことになります。

LLMの時代

LLMが一般的になったのは、「ChatGPTが出てから」で間違いはないと言って良いと思います。

もちろんそれ以前から色々なLLMと呼べるものは存在していましたし、それと陸続きで「機械学習」は存在していました。 そのかなり前から、とゆーか前回のブームのさらに前くらいから、ニューラルネットを応用して文章や概念を理解させるという実験が存在していました。 私が学生の頃(1980年前後)には既に小規模なアナログ回路に学習させるという話が学会誌に出てたりしました。 それ見て後輩が謎のハードウェアを作っていました。

そういった「それ以前から」の頃は、小規模なハードウェアでの遊戯だったりしたものが、「ChatGPT以後」にはどんどんとハードウェアを要求するようになりました。 Grok3の話とか見ていると、あまりのインフレで眩暈がするほどです。 GPUだけで1兆円の規模ですからね。 LISPやPrologが動く環境を作って喜んでいた時代のハードウェアの価格のことを思うと、想像もつきません。

ちなみに、国プロである「第五世代コンピュータ」は総額で540億円だったそうで、それと比較しても桁違いですね。

大手IT企業はこぞってGPUを買い求め… というのを見ると、「軍拡競争」という言葉が頭に浮かびます。 GPUの数の話を見ると、「核兵器の数」の話に見えたりします。 目的は異なりますが、「数で勝負」なところは似ています。

その中にDeepSeekが比較的poorなハードウェアで、そういった「軍拡競争」をしている各社と並ぶかそれ以上のパフォーマンスのあるモデルを出したのを見ると、「米の軍拡競争」を横目で見ながら勝手に核兵器を開発した北朝鮮とかインドの姿を見たような気がしました。 北朝鮮はどうだか知らないのですが、インドは核開発に使うスパコンが入手できないので、パソコンいっぱい並べて計算していたという逸話があります。 DeepSeekはなんとなくそれに似たものを感じます。

これは計算だけではありません。

LLMには「食わせる餌」が必要です。 つまり、学習データが必要となります。 これは要するに「データ」です。 LLMなら「テキストデータ」ですし、マルチモーダルならその他に「音」「絵」「動画」というようなデータです。 これらを適切に入手して、精査して、学習データにするための加工をします。

加工はもちろんそういったツールを使うわけですが、「結局のところ人手」という部分が少なくありませんし、人手で精査したデータを使う方が良い結果が出るようです。 「人手で」となると、労働集約的な話になって、「低性能プロセッサ(人間)を金かけて(高人件費で)使う」ということになり、これはこれでハイコストです。

適切に入手することも大変です。 フリーで公開されている文書には限界があって、それはほぼ使われ尽しています。 残るのは、半分グレーなものや、金を出して買うもの、あるいはSNS事業者がアカウントと引き換えに集めた会話データとか、そういったものとなります。 これらのことで差別化するためには、結局お金ということになります。

さらに、モデルを世の中に出すためには「社会性」を持たせるための後処理が必要です。 人工知能は倫理的にプレーンですから、「社会的に許されないこと」も平気で考えてしまいます。 人間はそこを「社会性」で抑えたりするわけですが、そのための学習を後で行う必要があります。 これもかなり機械化はされているようですが(DeepSeekは完全機械化したような話ですね)、その元となる情報は人手で作ることになります。

まぁそんなわけで、LLMのモデルの開発は随分とお金がかかります。

その様子について考えていた時に、「なんか原発の建設に似てるな」と感じました。 どこがどうとか、「厳密に言うとー」という議論はどうでもいいです、そう感じただけです。 また同時に「人工知能って電気ではないか?」ということを感じた最初です。

電気の発見と発展

あまり歴史の細かい話を書いてもしょうがないですし、ここを掘り下げるためにChatGPTを使っても、水増し原稿を読むだけになってしまいますから、ごく雑にまとめを書きます。

  1. 「電気」が発見された当初、それは「見世物」としての価値しかなかった
  2. 「電池」が発明されて、なんか面白そうなことに使えそうになった
  3. 「モータ」や「電灯」が発明され、「使えるもの」になり始めた
  4. 「発電機」が作られ、小規模ながら商売になり始めた
  5. ますます「モータ」や「電灯」が普及し、「発電所」が作られるようになった
  6. 「発電所」が大きくなって都市に作るのが難しくなり、「送電技術」が発達した
  7. 普及の過程で、様々な応用が発見発明され、ますます需要が拡大した
  8. 従来の「発電所」では規模の拡大が厳しくなったので、「原子力発電所」が作られた
  9. 消費量そのものは上下しつつも、応用の拡がりは留まるところを知らず、需要も増えた

雑に言えばこんな感じです。

1.は「エレキテル」とかの時代です。 要するに江戸時代。 フランクリンもこの時代ですね。 と言えば、「利用」なんてその程度です。

5.の頃に日本では「東京電燈」という会社が作られ、当初茅場町に直流発電所が作られました。 でも、すぐに6.ということになって浅草に交流発電所が作られ(正確には蔵前なんですが)て… いや、ここをあまり掘り下げてもしょうがないですが、これが明治の頃だということだけ把握してください。

「モータ」にしても「電灯」にしても、その背景となるものがあります。 というか、元になるものがあって、その「より良い代替」として生まれています。 「モータ」は古くは人力、馬力… その頃だと蒸気機関が使われていたものが替わりました。 「電灯」は火、蝋燭、ランプ… その頃だとガス灯とかあって、その替わりとなりました。

後に「電話」や「ラジオ」のような電気でないと実現できないものも生まれました。 類似の前身となるものがないわけではないですが、まるで別のものだとも言えますね。

つまり、電気は

  • 当初不思議な見世物だった
  • 実用の緒がついた
  • 既にあったものの代替として重宝され需要が高まった
  • 作る技術や送る技術が発展した
  • 需要が高まる過程で、単なる代替でない更なる需要が発見された
  • 周辺の諸々を巻き込みながら、様々な技術を生み育てた

というものだったわけです。

これは世の中のイノベーティブなものはだいたいそうですが(とゆーか、そうなるものをイノベーションと呼ぶのでしょう)、電気の場合は特に顕著だったわけです。 そんなこともあって「第二の火」と呼ばれることもあります。ちなみに「第一の火」は火そのもの、「第三の火」は原子力を指します。

人工知能と電気

ある時なんとなく「モデルの開発」と「原発の建設」が似てるなと思って、人工知能と電気の類似性について考え始めました。

いまどきの人工知能の流れ

前回の人工知能ブームが終焉になりかけた時、「次はニューロだ」という話がありました。 その頃既に3層くらいのニューラルネットワークが、そこそこの成果が出せるということが発見されていて、次に来るのはこれなのではないかという話がありました。 ニューラルネットワークは動物の神経を模したものであり、「脳」も神経ですから、「ニューラルネットワークを脳の規模にしたら」というIFにワンチャンありそうに見えます。 とは言え、3層くらいのニューラルネットでは出来ることがたがか知れていますし、理論的にも限界があることが知れました。

パーセプトロンは単層だと線形分離可能な問題にしか適用できませんが、多層にするとその限界を越えられるということはわかっていました。 しかし、3層以上の層数となるとうまく扱えるかどうかも、(実用的に)どんな効果が期待できるかも未知数だったので、いつの間にかしぼんでしまってました。

この辺、電子軌道計算のそれに似てるとも言えます。 「この先に凄い技術的な未来がありそう」と思えても、ごく簡単な例(水素原子なら厳密解がある)ならすぐに計算できても、実用的な規模になると全く新しい手法が必要になります。 その「全く新しい手法」が見つからない限りは、実用にはなってくれなくて「理屈の上では可能」以上のものにはなれません。 ニューラルネットワークも、実用的規模となると従来の手法では無理だったわけです。

それから(IT技術的に)長い時間が過ぎて、「パーセプトロンの延長」の先に手が出せるようになりました。 つまり、多層化の困難が様々な方法(アルゴリズムの発見だけではなく計算パワーの増加とか)で解決され、いよいよ実用になる時が来ました。

ここから後は「ごく最近」のことですから、ここでgdgd書く必要はないでしょう。 一気にいろいろなモデルが提案され、いろいろな応用が始まりました。

電気の応用

電気の話に戻ってみます。

「強い電気」があれば、できることは増えます。 モータもいっぱい回せるでしょう、電灯もいっぱい点けられるでしょう。 コンピュータもいっぱい動かせます… 素晴しいですね。

でも「強い電気」だけじゃダメですよね。 その「電気の取り回し技術(送配電技術)」も必要です。 どれだけ「強い電気」があっても、うまく配分しなければうまく使えません。 発電所は余裕で動いているのに末端では電力不足、では意味がありません。

とは言え、「電気技術」はそれだけではありませんね。 今挙げたどちらもが「電力技術」に過ぎなくて、「それ以外の電気技術」の部分も必要です。

たとえばモータを回すには、

  • モータを作る技術
  • モータを使う技術
  • それらの需要

が必要です。 いや大雑把な分類でも、これ以上のものがあるかも知れません。 「作る技術」も「設計」と「製造」では別の技術ですしね。

まぁとにかく、「モータ」は電気が来ているだけで回ったりはしないし、回してるだけでは意味を持たないわけです。 そもそも「モータ」なんてものを発明してなかったら、電気需要の何割かは減っているでしょうし、もしかしたら電気産業は生まれてなかったかも知れません。

電灯を点けるには、… って一々書いてもしょうがないわけですが、それはモータを回すことと重複する技術もあれば、別の技術もあります。 技術だけではない「需要」に関するものもあります。 そもそも「電灯」なんてものを(ry

いずれにせよ、電気は

  • 作る
  • 運ぶ
  • 使う

は一部は重複しながらも別の技術であり、そのどれが欠けても応用はできませんし、応用できないということは需要もないということです。

また、商売という目で見てみると、「作る」「運ぶ」の部分は単体の企業としては十分儲かっていますし、それは投資に見合ってるだろうと思います。

でも、この「使う」ということや「それに関連する産業」は、単体の企業がどうかということとは別として、「市場」としては膨大なものがあります。 と言うか、我々が「電気業界」と言った時にすぐに思いつくのは、むしろそっちであると言っても良いくらいです。 それくらい大きな市場がここにあります。

もちろん、どっちが上だとか下だとかありません。 どちらもないと、業界がそもそも存在しえません。 でも、「市場」という目で見れば、電気を作ったり運んだりすることよりは、使うためや使わせるための方がずっと大きな市場があるのは重要なポイントだと思います。

モデル + プロンプト芸 = 応用?

「今どきの人工知能のいろいろな応用」とは言いましたが、その多くは「そういったモデルを作る」ことと「プロンプト芸」です。

たとえば、「素敵な○○画が欲しい」という応用のためには、そういったモデルが作られました。 たとえば、「いい感じの小説が書いて欲しい」という応用のためには、そういったモデルが作られました。

「そういったモデル」が作られても、使う方の工夫が不要なわけではありません。 そこで「プロンプト芸」というものが必要になります。

期待通りの結果を引き出すために、うまくモデルに指示をしてやる。 これは「今」の人工知能応用には、非常に重要な技術です。

世間には「たかがプロンプト芸」みたいな見方があります。

特に技術に明るい人、人工知能を理解してると自負している人達に、この見方は多いように思います。 他方、「AIで○万円の副業」とか言ってる胡散臭い人達は、プロンプト芸が技術の全てのような話をしがちです。

あくまで私見に過ぎませんが、「モデル」と「プロンプト芸」は車の両輪のようなものだと思った方が良いでしょう。 いくら良いモデルがあっても、そこに上手い指示が出せなければ、モデルの能力を引き出せません。 他方、どんなに上手い指示が出せても、モデルが××なら、結果もダメでしょう。

それはそれでいいんですが、「AI応用」はこれで全部かと言われると、それは違うんじゃないの? と思うわけです。

電気の例の最後で挙げたもののうち、「作る」「運ぶ」はできていても、「使う」技術はまだであって、「応用」としてはまだではないか? ということです。 「応用」が十分でなければ、「見せもの」以上の需要はないということです。

ちなみに、前回の人工知能ブームの時の「第五世代コンピュータ」の最大の敗因は、「応用」がなかったからだという評価もあります。 これ自体の真偽はさておき、「応用」がなければ人々は使いませんし、そうなると廃れるしかない。 また、ごく初歩的な応用である「チャット」が登場したことによってLLMが市民権を得たことを考えると、かなり妥当な評価だろうと思います。

人工知能の方向

「強いモデル」と「強いプロンプト芸」だけだと、電気で言えば「作る」「運ぶ」あたりで終わっていて、電気で言えば「使う」部分、たとえば「電子工学」にあたる部分がまるっと欠けているのが、今の人工知能界隈なのではないかというのが前節のまとめです。

これは多分に「こじつけ」です。 ただ単にLLMのモデル開発が原発の建設に見えたという「イメージ」からの妄想の果てであって、理屈ではありません。

とは言え、そういった見方で「人工知能業界」を見ると、今見えている姿とは別の姿が見えて来ます。

AIが「電気」と同じような位置にあるとしたら

現実問題として、「我々」が思い立って

おっしゃー、世界一のモデル作るぞーー

と思ったところで不可能です。

DeepSeekのアプローチ(GRPO)は色々な夢を見させてはくれましたが、既に公開された手法ですから、「強いデータセンター」を持つところがそれを使えば「もっと強いモデル」を作ってしまうでしょう。 また、そういったところだと「強い研究者」が大勢いるわけなので、もっと強い手法も開発するでしょう。

結局のところ、モデル開発の世界は「軍拡競争」の世界であり、「大金持ってる奴が勝つ」世界になってしまっています。 「強い電気」を作るためには「強い発電所」であり、今ならそれは「原発」ということになる。 「強い電気」を作る競争をするのであれば、原発が作れなきゃダメで、それができるところは限られている。 そういったことです。

とは言え、いくら「強いモデル」が作れても、その能力を引き出せなければ意味がありません。 いくら「強い電気」が作れても、送電できなければ意味がない… と同じように見えます。 その「送電技術」に相当するものは何だろうと思ったら、それは多分「プロンプト芸」であるように見えます。

じゃあ、モータのようなエネルギー変換技術や、コンピュータを作るような電子技術に相当する人工知能世界の技術って何だ? と考えたら、すぐには思いつきません。 多分その「ミッシングリンク」のところに、「応用」があるのではないかと見えるわけです。

もちろん、今も「応用」がないわけではありません。 「copilot」と名のついた諸々はその一端でしょう。 「AIのべりすと」のようなサービスもそうでしょう。 こうやって挙げて行くと枚挙に暇がない… と言えなくもありません。

でも、仮にAIは電気のようなものだと考えたら、もっと様々な用途があってもおかしくありません。 私達のまだ知らない用途もあるかも知れません。 と言うか、その方が自然ではないかと思えます。

繰り返しますが、「AIは電気のようなもの」というのは単なるこじつけです。 ただ、そのこじつけの目線でAIを見た時に、ある程度の「未来」が想像できるように思うわけです。

「第四の火」

表題で「人工知能は「第五の火」である」と書いています。

この「第nの火」と呼ばれるものについては既に書いていますが、あらためて整理しておくと、

  • 第一の火 火そのもの
  • 第二の火 電気
  • 第三の火 原子力

とするのが一般的です。 ここまではエネルギーの話です。 だから「火」なわけです。

その先を考えたら、たとえば「核融合」とかが第四の火と呼ばれる時もあるかも知れませんが、それは「原子力」に含まれますよね。 また、理論的には「それ以上」のエネルギー源はないので、仮に「恒星エネルギー(要するに太陽光ですが)」を「第四の火」と呼ぶのはなんか違うように思えます。 つまり、「第四の火」はエネルギーの話ではないし、「火」はエネルギーの話というよりは文化の変革の要因なんだと見た方が楽しいし話が続きますね。

そんなわけで、勝手に「インターネット」を「第四の火」と考えることにします。

インターネット黎明期の人達は、まだほとんど存命です。 世代としては私とだいたい同じであり、日本では1hopまたは2hopくらいの友人知人で全部です。 もちろん嫌いな奴や仲の良くない奴もいるので全部が友達ではないですけれど、そんな人とも共通知人が何人もいるものです。 それは「それだけ私の顔が広い」のではなくて、当時は「世の中あらゆる2hop」という言葉が当時あったし、現実にそうだったというだけです。

そういった黎明期に活躍した人達が先駆者として「インターネット業界」で先行者利益を得て悠々自適な生活になったかと言えばそうではありません。 インターネットで、「世界」は別にしても「日本」では一番詳しい集団だった人達が、「インターネット長者」になっていません。

もちろん、金よりも学術研究に興味のある人達も多数いて、そういった人達が金に色気を出さないのは当然としても、ビジネスに身を投じた人達であっても「インターネット長者」になった人はごくわずかです。 多分無作為抽出母集団の中で「長者」になった人が存在する確率とそんなに大きくは違わないでしょう。

何が言いたいかと言えば、「インターネット技術」に長じていたことが、「インターネット応用」の「勝者」とはなっていないということです。 それよりは、後に来た(出遅れた)人達の方が、ずっと面白いことをやって、ずっと儲けたということです(日本の「IT長者」は一世代若い)。

これは個人だけではなくて、法人でも似たようなものです。 気になる人は歴史を調べてみて下さい。 黎明期に盛り上がった会社は、むしろ生き残りの方が少ないという事実に驚きます。

さて、なぜこういった話をしたかと言えば、「黎明期」に出遅れたと言っても、それは別にマイナスではないし、何ならそういった技術の方向性が見えてからの

後出しジャンケン

になったとさえ言えます。 後出しジャンケンは通常勝つものです。 そして、この世界には「先行逃げ切り」ができた者(会社)はありません。

想像される未来

「第二の火」と「第四の火」という先行事例を見てみました。

いろいろこじつけではありますが、共通する部分があることは理解できたと思います。 と言いますか、未来を予測することは、こういったこじつけは不可避… というより、いかに上手くこじつけるか(モデル化するか)が、有効な未来予測につながると言えます。

そこで共通部分から外挿し、共通しない部分からその補正をして、「第五の火」の未来を考えてみたいと思います。

未来の鍵はやっぱり「応用」

あれこれ書いて来ましたが、結局このようなものに必要なのは「応用」です。 つまり、アプリケーションです。 そして、今の「人工知能なもの」を見る限りでは、「まだまだ全然足りてない」と思いますし、まだ「人工知能である」ということを活かし切れてないとも言えます。

たとえば、多くの言語処理はまだ手続き的です。 それはその方が速いし低コストということもあって、特に速度を期待する時にはそういったコードを書く方が良いのです。 逆に言えば、人工知能を使った言語処理が十分廉価で高速になれば、人工知能による言語処理がより一般的になるでしょう。

これは機械翻訳について考えたらよくわかると思います。 既存の多くの機械翻訳は手続き的ですし、人工知能を使ったと謳ったものは精度がイマイチだったりします(重要な文を端折ったりします)。 もっと高速でより廉価に処理できるようになれば、機械翻訳で人工知能を使うことは一般的になるでしょう。

コンパイラについて考えてみましょう。 現在のコンパイラの処理は、基本的に手続き処理です。 中間コードを生成するところまでであれば、手続き処理の方が多分永遠に速くて安いと思いますが、最適化はどうでしょう? 現代の最適化はヒューリスティックな処理があったり、複雑なグラフ問題を解いたりしていて、必ずしも手続き処理の方が速くて安い状態が続くとは考えにくいです。 とは言え、この部分はある意味人工知能向けではあります。

既にMetaではLLVMの中間コードをLLMで最適化するコンパイラを公開しています。

LLM Compiler

プログラムを自動で書かせる話が盛り上がったりもしていますが、さらにその「上」から「LLMそのものをアプリケーションプログラムとして使う」ことを模索している人達もいます。

たとえば、コードを書く時にしばしば「stub」とか「place holder」的なコードを書くことがありますが、ここをLLM呼び出しにしてしまって「そのコードが実装されたフリをさせる」というアプローチがあります。 さらには、もうアプリケーションなんて書かないで、人工知能そのものに「そんなアプリケーションとして動け」というプロンプトを出すというアプローチもあります。

今はこういったことは実験の域を出てませんが、そのうちそれが当たり前になるかも知れません。 単純なことまでそれをやるコスト? 「効率が気になったらfunction callにしてしまってください」と指示してJIT的にさせればいいだけですね。

もちろんこのような応用は、残念ながら現在のところではLLM(と言うか人工知能全般)がふんだんに使える環境でしか通用しません。 でも、遠くない将来何らかの形で、それが当たり前になる時代が来るはずです。

「応用」を考える時に大事なことがあります。

それは「人工知能技術の諸々は未来はもっとアクセスしやすくなり、より低コストになる」と信じることです。 と言うか、そうならなかったら「人工知能ブーム」のカウントが増えておしまいになってしまうでしょう。

仮に「おしまいにならない」と信じるなら、そういった前提を持って応用を考えた方が良いでしょう。

それはさておき、こういった事情もあって、現在の「応用」はまだまだ「人工知能を使うことは高コストで遅い」ということを前提としているものが多いです。 また、そうでないものもいくつかありますが、今度はそれは「いったい誰が使えるんだ?」というほど高コストだったりします。

ただ、今までのコの業界がそうであったように、これからも技術は進歩し、コンピュータは(何らかの方法で)高速化して行きます。 であれば、「来年には誰でも使えそう」と思いながら「応用」を作って行くことに価値がありますし、そういった目線であれば「もっともっと応用は増える」ということが理解できると思います。

何にしろ、「応用」が一番必要であり、それができる環境はいずれアクセスしやすくなります。

基礎技術も無縁ではない

ずっと応用だ応用だ、応用について考えろと言っているのですが、では基礎技術がどうでも良くなったかと言えばそうではありません。

また「電気」のアナロジーの話になりますが、現代で「電気を手に入れる」というのは、電力会社から送られる電気を使うということと、必ずしもイコールではありません。 もちろん「俺の原子力発電所」なんてものを持つことはありえませんし、「俺の原子炉」を持つこともないでしょう。 「俺のダム」を持つことも「俺の火力発電所」を持つこともありません。

でも、オフグリッドな電力も実は大量にあります。

電池はそうでしょう。 自前のエンジン発電機を使うこともあるでしょう。 オフグリッド太陽光発電を使うこともあるでしょう。 ごく小規模な消費であれば、「環境発電」を使うことも可能かも知れません。

これらはみな規模は異なりますが、発電技術であり、電力会社の使う設備にあるそれとの共通技術は大量にあります。 また、自前実装の必要があるものもあります。

そして、それらの多くは「応用(利用シーン)」と密接な関係があったりもします。 つまり、応用には一見不要に見える「作る」「運ぶ」の技術であっても、実は必要なこともあるということです。

この状況は多分「人工知能」でも大きく変わらないと思います。

既にインフラとして存在している「大手人工知能会社」のAPIがいつも使えるわけではありませんし、いつも目的にフィットしているというわけでもありません。 様々な事情でそういったものが使えない状況もあるでしょう。

また、そんな大袈裟なものでなくても、特定の用途向きの、あるいは制御用のといった人工知能応用もまだまだこれからというところです。

ですから、いかに「応用」と言っても上位レイヤの話だけではなくて、より低いレイヤのものを見なければならない局面がありますし、そこがわかることは差別化要因となりえるでしょう。

ですから、応用だ応用だと言っても、PyTorchBLASの知識が不要になったりするわけではありません。 もちろん、それなしで「応用」ができる局面は多々あると思いますが、あればあったで差別化要因となりえます。

「先行者利益」を過大評価しない

これは「第四の火」のところの友人知人の例で書いたことですが、これは「第五の火」でも同じでしょう。

この世界では、まだ「応用」は始まったばかりです。 やっとUIとしてはとても原始的な「チャット」が実用になっただけです。 もちろん音声応答であるとか、画像や動画であるだとかというものも出始めてはいますが、やっと始まったばかりです。 まだ海のものとも山のものともついていませんし、現在あるプロダクトで十分ということは絶対にありえません。

「copilot」という使い方、あるいはそれを使うことも、始まったばかりです。 そして、その品質は… まぁ、驚き屋やアーリーアダプタが喜ぶ程度のものであって、まだ万人が使えるものには遠いです。 効果が大な事例を見たり、驚き屋が煽るせいで、「使ってない俺は遅れてる?」とか思ったりしますが、まだまだ頑張って使って無理して使ってやっとこさ成果が出るというのが普通ですから、まだあわてる必要はありません。 「あるんだなー」と思って遠目に見ておいて、使いものになりそうな雰囲気になった時に使う(つまりレイトマジョリティーになる)ので十分でしょう。

「第四の火」の例で言えば、今の人工知能の世界はまだまだ「自分のホームページでCGIを使ってウェブ掲示板をやっている」ような時代だと言っても良いでしょう。 まともなECサイトもSNSも、まだ登場する前という時期だと言えば良いでしょう。

その頃の「著名人」の名前を今の人が言えるか? と言われたら無理でしょう? 「第四の火」の時代は遠い過去ではなくて、今も続いているものではありますが、「先行者」として当時名前が挙がった人達の名前を知る人は「インターネット老人会」だけですし、特別親しかった人を別にすれば「名前すら忘れた」と思います。

つまり、時代の波、変化の波を大きくかぶるコの世界で「先行者」とはその程度であると言えます。 「その時代」には利益があっても、「その次の時代」には名前すら思い出されない。 それがコの世界です。

ですから、自分が「出遅れた」と思う必要は全くありません。 むしろ「後出しジャンケンは必勝」と思って、先人の屍を踏んで歩けば良いのです。

何しろコの世界の「新技術」やその周辺は死屍累々なのが普通です。 「屍」が嫌いな人はその周辺を避けて行けば良いし、「屍」を踏んだり蹴ったりするのが好きならその屍を越えて行けばいいのです。 「自分の時」が来たと思えるまでは、先行者は「先に死んでくれてありがとう」くらいに思っておけば十分です。

もちろん、「自分の時」が来てしまったら、「たとえ屍になろうとも」という心意気()は大事ですけれど。

まとめ

というように、半ば無理やり「電気」と「インターネット」を先行例として「人工知能」の未来について考察してみました。

これが正しいと信じるか、疑わしいと思うか。 結論はすぐには出ないと思いますが、答え合わせくらいはそう遠くない未来にできるんじゃないかと思います。

私としては、多分人工知能は「電気」と同じような位置になる技術であって、その未来のためには

もっと応用を
そして基礎体力としての基礎技術

と考えています。

PS

娘、このエントリを見たようで、「ノーマンの新刊読むか?」とメッセージ送って来たw

最近のエントリー

ブラウザでの画面表示と印刷の描画差異に関する実践的考察

RSSリーダを作りました

Puppeteerは過去の遺物だったのでPlaywrightにした話

💥 Prisma vs Sequelize:実戦投入してわかった本当の話

第14回 人工知能は「第五の火」である

DeepSeek-R1-Distill-Qwen-14B-Japaneseの量子化ビット数による答えの精度の違い

使われていないMaix Amigo を活用して、バーコードリーダーにする

TinySwallow-1.5B-Instruct

cyberagent/DeepSeek-R1-Distill-Qwen-14B-Japanese

パスワードマネージャの一手法(公知化情報)

中華安お掃除ロボット(650円)を買ってみました

phi-4とDeepSeek-R1の翻訳性能比較

phi-4

DeepSeek-R1-Distill-Qwen-14B

新オフィスの様子

基本のパン

社会制度のこと

気候のこと

新春のお散歩

あけましておめでとうございます