ChatGPTは積み重ねの賜物!1972年から続く進化
ここ数年、ChatGPTの話題で持ちきりですが、実は新しい技術というわけではないんです。今日は、その意外な一面について見てみましょう。
今や世界中で話題のAI技術の多くは、実は半世紀以上前に生まれた理論がベースになっています。特に、ChatGPTの核となる言語モデルは、1972年にIBMの Frederick Jelinek 博士が考案したものなんです。
「言語モデル」って何でしょうか?簡単に言えば、人間の言葉を数学式で表現したものです。例えば、「海はなぜ青いの?」という文章と「海はなぜ赤なの?」という文章があった場合、どちらがより自然な言葉として成立するか、その確率を計算するわけです。つまり、大量のテキストデータから、どの単語がどのくらいの頻度で出現するかを統計的に分析されています。ChatGPTの場合、なんと5000億語以上ものデータを学習しているそうです。
面白いのは、ChatGPTが文章を書く時の基本的な構造が、アメリカの中学生が習う「五段落エッセイ」(Five Paragraph Essay)という伝統的な作文技法に似ているんです。序論、本論(3つのポイント)、結論という構成です。AIも定型的なパターンに従って文章を組み立てているわけですね。
新しい技術は、往々にして既存の理論や手法の延長線上にあります。ChatGPTも例外ではありません。ただし、昔の言語モデルと比べると、扱えるデータ量が格段に増え、より多くの文脈情報を考慮できるようになりました。それが、より自然な会話を可能にしている理由なのです。
技術の進歩は、時として劇的に見えますが、実は地道な積み重ねの結果なんですよね。これって、とても励みになる話だと思いませんか?
コメント
コメントを投稿