コース: 生成AIと従来型AIの違い
人工ニューラルネットワークとは
2011 年にGoogle は、 Google Brain という極秘プロジェクトを 立ち上げました。 16,000 個のプロセッサをつなげ、 YouTube 動画から抽出した 1000 万枚のデジタル画像を 分析したのですが、 その際、Google Brain は 人工ニューラルネットワークを使いました。 これは、人間の脳の構造から 着想を得て作られたもので、 人工ニューロンの層から層へと 情報を渡していきます。 これにより、大量のデータセットから パターンを分析できるようになりました。 データは小さな単位に分解され、 数十から数千、 最終的には、数百万個もの 人工ニューロンによって処理されました。 人工ニューラルネットワークは 何十年も前から存在していましたが、 Google は計算処理において 膨大な量のデータを利用できたため、 ディープラーニング人工ニューラル ネットワークと呼ばれる 遥かに大きなネットワークを使って 実験したのです。 ディープとは、 従来のものより多くの層が存在することを 意味します。 ニューロンの間に 数十億もの繋がりが作られ、 通常のネットワークでは 難しかったパターンを 検出できるようになりました。 Google は、 このディープラーニングネットワークを パターン認識システムとして使用し、 1,000 万枚の画像からパターンを 見つけ出す実験をしました。 その際には教師なし学習、すなわち、 システムに自力でデータセットのパターンを 発見させる手法を用いて、 機械学習を行ないました。 このネットワークは、 YouTube 動画から 2万件以上のパターンを識別して クラスタリングしました。 中には、人間が簡単に 認識できるパターンもありましたが、 2012 年の Google の論文によると、 ぼんやりとした画像ではあるものの、 人間の顔と猫のパターンを ネットワークが認識できていることが わかります。 同じ頃、Microsoft は、 この技術を利用して 人間の音声パターンを検出し、 Teams などの 会議プラットフォームに向けて リアルタイム翻訳の機能を 開発しようとしていました。 それ以来、多くの企業が 人工ニューラルネットワークの さまざまな使い方を見つけ出しました。 クレジットカード会社は カードの不正利用を特定するために、 小売店は店舗での顧客の商品購入パターンを 特定するために活用しています。 これらはすべて、 パターンを見つけることで 未来の行動をより的確に予想できるという 考えに基づいています。 しかし、ディープラーニングは、 全く新しい技術が誕生する きっかけにもなりました。 このネットワークは 動画内のパターンを検出し、 新しい画像を生成したのです。 ぼんやりとした人間の顔や猫の画像は、 最初期の生成 AI のひとつといえます。 分析の副産物として、 データにはない全く新しい画像が 生み出されたのです。 初期の頃のぼんやりとした画像が、 現在の生成 AI で見られるような リアルな画像へと変化した経緯は、 後ほど解説します。