5/28(水)AI(人工知能)とは何か?〜人間の脳を模倣する計算モデル〜

こんにちは。ハリ丸です。

いつもハリネズミの事ばかりなので、たまには違う話でも、、と思い、今回はAIについて話そうと思います。ものすごく初歩的な概要レベルのお話となります。

1. 生物の模倣から生まれた技術

人類は昔から、自然界の生き物の仕組みを観察し、科学技術に応用してきました。

●ハチの巣:ハニカム構造(六角形)→軽くて強い構造のヒントに
●カワセミのくちばし:新幹線の先端形状→騒音や空気抵抗の低減に貢献

このような「模倣からの発明」を発展させていった結果、
最も高度な生物=人間の脳を模倣すれば、より賢いシステムができるのでは?
という考えに至りました。

2. 人間の脳ができること=未来を予測すること

脳は、膨大な情報をもとに状況を判断し、未来を推測します。
天気の変化を見て「雨が降りそう」と予測する
今の速度から「何分後に到着するか」を計算する
相手の表情を見て「怒っていそうだ」と察知する
つまり、脳は未来を予測する非常に高性能な機能を備えていると言えます。

 3. 脳の仕組みをまねた「ニューラルネットワーク」

脳の構造は、ニューロン(神経細胞)の巨大なネットワークです。
1つのニューロンは「情報を受け取って、処理して、出力」します。
数百億個のニューロンが複雑に連携することで、考える/覚える/判断するが可能になる
このしくみを数式と計算で模倣したのが「ニューラルネットワーク」です。
人工的なニューロンをつなげて、脳のような計算処理を実現しようとしています。

脳とニューラルネットワーク

4. ニューラルネットワークも、基本はシンプルです

   [入力] → [中間層] → [出力]

入力:画像、音声、テキストなどのデータ
中間層:人工ニューロンのネットワーク(大量のパラメータを持つ)
出力:分類、予測、生成などの結果

つまり数学の「関数 y=f(x) 」と考えてもらえれば良いと思います。
ごく簡単なイメージを上げると、例えばy=1.5x+0.3という関数があったとします。
さらにxは5.3x+1から算出されるとすれば、y=1.5(5.3x+1)+0.3となります。
そしてここで算出されたyは他の中間層y=4.5x+7.4に使用されるなど、さまざまな関連を
もった形で中間層が存在することになります。(あくまで例なので実際はこんな簡単ではないです)

膨大な数の「入力 → 中間層 → 出力」のかたまりが、連携し合って非常に複雑なネットワークを構成しています。この点で脳と非常に似ています。

この「中間層のパラメータ」をうまく調整することで、複雑なパターン認識や推論ができるようになります。

※chatGPTの有料プランはこのパラメータの数が膨大なのでより正確な出力結果を得られるということになります

5. パラメータの調整(=学習)

ニューラルネットワークが「人間の脳のように」複雑な判断や予測を行うためには、
中間層にある大量のパラメータ(重みやバイアス)を、適切な値に調整する必要があります。この調整作業が「学習(Learning)」と言われるものとなります。

中間層は関数で表現すると以下のようになります。
  y=w*x+b
w(重み)… 入力の重要度を表すパラメータ
b(バイアス)… 出力をずらすパラメータ
x … 入力データ(例:画像のピクセル値や、テキストの単語)
y … 出力(例:猫か犬かの分類結果)

ニューラルネットワークでは、このような 数百億〜数兆個の「w」と「b」が存在し、
これらを 学習によって自動で最適な値に近づけていきます。

具体的には以下のようなカンジで学習をしています。

予測する:現在のパラメータで出力を計算
答えと比べる:正解データと比較し、どれだけ間違っているか(誤差)を計算
調整する:間違いを減らす方向にパラメータを微調整
繰り返す:この作業を何万回、何百万回も繰り返す

この一連のプロセスで、ニューラルネットワークは「経験をもとに上達」していきます。
この方法は 誤差逆伝播法(Backpropagation) と呼ばれ、機械学習・深層学習の基本的な仕組みです。

ChatGPTを含む「大規模言語モデル(LLM)」では、パラメータの数が数千億〜数兆にも達します。

●巨大なテキストデータを学習(Web、書籍、コードなど)
●単語の意味・文脈・論理などをパターンとして学習
●あらゆる文脈で「もっとも自然な次の単語」を予測する

上記のようにChatGPTは「膨大な数の関数とパラメータの集合体」で、
人間の脳に近いスケールでの推論を再現しようとしています。

カテゴリー: スタッフコラム パーマリンク