最先端技術を学ぶための専門動画コンテンツ
◼️概要 生成AI技術の最前線である大規模言語モデル(LLM)の活用方法について学びます。計算コストの問題から一般ユーザーがゼロからLLMを構築することは困難なため、本回では公開されている事前学習済みモデルを効果的に利用する方法に焦点を当てます。Transformerベースの言語モデルを様々なタスクに応用し、実用的な生成AIアプリケーション開発のスキルを習得します。 ◼️コース内容 生成AIエンジニア講座(全6回) 第六回:大規模言語モデル 目的:事前学習済みの大規模言語モデルを活用した実用的なアプリケーション開発方法を習得する 対象者:第五回までを受講した方、またはTransformerモデルの基礎知識を持つ方 内容: 大規模言語モデルの概要と種類 事前学習済みモデルの選択と利用方法 主要な自然言語処理タスクの実装 文書分類の実装と評価 文章の類似度計算 要約生成の方法 文の埋め込み表現(Embeddings)の活用 LLMを用いた検索システムの構築 生成AIアプリケーション開発の実践
「RAGの全体像とノーコード体験」(全3回セット・第1回) 本動画は「生成AIエンジニア講座 RAG編」(全3回セット)の第1回です。 生成AIの基礎から出発し、RAG(Retrieval-Augmented Generation)の概要と仕組みを整理します。LLM が外部データを検索・参照しながら回答を生成する流れや、ファインチューニングとの違い、RAG が向く/向かないユースケースを図解を交えて解説します。 後半ではノーコードツール「dify」を用いて、社内文書検索のようなRAGアプリを実際に構築します。 検索 → コンテキスト付与 → 回答生成という一連の処理フローを体験しながら、後続の第2回・第3回で扱うPython実装編・応用編につながる基礎を身につけます。 エンジニアだけでなく、ビジネス職やマネジメント層の方でも理解しやすい導入回です。 【この回で使用する教材】 教材(スライド): https://docs.google.com/presentation/d/1n2KTrrpRuWaysrD4juzMKfaWcC-GO45fwp3xeyoh5G0/edit?usp=sharing
第3回では、量子機械学習の応用としてQCNN(量子畳み込みニューラルネットワーク)を取り上げます。古典的なCNNの構造を踏まえつつ、量子版の畳み込み・プーリング・測定の仕組みを解説します。ZFeatureMapによるデータの量子エンコーディングから、量子畳み込み・量子プーリングの動作、さらには学習・評価までをColab環境で実装し、量子モデルが持つ正則化的効果(過学習抑制)の可能性にも触れます。量子×AIの融合領域を、理論と実装の両面から深く理解できる内容です。 スライド https://docs.google.com/presentation/d/1eOuTv35H5UmeTofxKRLpu92Vxn4gX2Mv9CZX8QIQ7ec/edit?usp=sharing 演習 https://colab.research.google.com/drive/19qkXQWb7bLX3uDrFyirI0EoWi4gRJ6SW?usp=sharing
生成AIジェネラリスト 第3回
「ハイブリッド検索と高速・高精度なRAG応用実装(Colab/GPU)」(全3回セット・第3回) 本動画は「生成AIエンジニア講座 RAG編」(全3回セット)の第3回です。 第3回では、第2回までで学んだRAGの基礎実装を発展させ、実務レベルのシステム構築を意識した応用編に取り組みます。キーワード検索とベクトル検索を組み合わせたハイブリッド検索、日本語テキストに対する形態素解析(Sudachi)による前処理、チャンク設計・インデックス運用・キャッシュ活用など、速度と精度を両立するための実践的な工夫を紹介します。 演習では、Google Colab(GPU環境)上で外部ドキュメントを対象としたRAGアプリを開発し、検索戦略やモデル構成を調整しながら応答品質を高めていきます。PoCや業務システムへの組み込みなど、RAGを自社業務へ本格的に適用していくことを見据えた、全3回の集大成となる内容です。 【この回で使用する教材】 教材(スライド): https://docs.google.com/presentation/d/1CgIkUiUAgraN0I9t-6sh8Ar_CU-XcZcmzWwC0mdrnck/edit?usp=sharing 演習問題(Colab): https://colab.research.google.com/drive/1Mm75_MWMKbyFwmzdYT8oyQzjPUPeXsc5?usp=sharing
「PythonによるRAG基礎実装(Colab/CPU)」(全3回セット・第2回) 本動画は「生成AIエンジニア講座 RAG編」(全3回セット)の第2回です。 第1回で学んだRAGの全体像を踏まえ、ここではPythonによる基礎実装に取り組みます。テキストをベクトル化するエンベディングの考え方、コサイン類似度による類似度計算、チャンク分割とオーバーラップの設計など、検索精度に直結するポイントを丁寧に解説します。 演習では、Google Colab(CPU環境)を使い、シンプルなテキストデータを対象としたRAGアプリケーションを一から実装します。 ベクトル化 → 検索 → コンテキスト付与 → 回答生成という処理を、サンプルコードを動かしながら確認することで、「RAGの仕組み」をコードレベルで理解することを目指します。全3回を通して、ここが実装の入門ステップにあたる回です。 【この回で使用する教材】 教材(スライド): https://docs.google.com/presentation/d/1v8npuWGZdT98Glg4A7z99ior8yb5eIaeOwbjIxf8TqM/edit?usp=sharing 演習問題(Colab): https://colab.research.google.com/drive/16K3S00v5bzMu6E-EeYzNmSXb5BAUxpCP?usp=sharing
◼️概要 自然言語処理における革命的技術であるTransformerモデルについて学びます。2017年に「Attention is all you need」論文で提案されたTransformerは、従来のリカレントニューラルネットワークの限界を超え、長い文章でも効率的に特徴を抽出できる画期的なモデルです。本回では、Transformerの核となるAttention機構の仕組みと実装について理解を深め、GPTなどの大規模言語モデルの基盤技術を習得します。 ◼️コース内容 生成AIエンジニア講座(全6回) 第五回:Transformerモデル 目的:現代の自然言語処理の基盤となるTransformerモデルの原理を理解し、基本的な実装方法を習得する 対象者:第四回までを受講した方、またはニューラルネットワークの基礎知識を持つ方 内容: Transformerモデルの基本構造と特徴 Attention機構の原理と数学的基礎 Self-AttentionとMulti-head Attentionの仕組み
◼️概要 現代の生成AIの中核技術である拡散モデル(Diffusion Model)について学びます。拡散モデルは変分オートエンコーダー(VAE)の概念を発展させ、潜在変数を階層的に配置することで高品質な生成を可能にしています。本回では、データに徐々にノイズを付与する拡散過程と、ノイズから元のデータを復元する逆拡散過程の理論と実装について理解を深めます。 ◼️コース内容 生成AIエンジニア講座(全6回) 第四回:拡散モデル 目的:最新の生成AI技術である拡散モデルの原理を理解し、基本的な実装方法を習得する 対象者:第三回までを受講した方、または生成モデルの基礎知識を持つ方 内容: 拡散モデルの基本概念とVAEとの関連性 拡散過程(Forward Process)の理論と実装 ノイズ付与のメカニズム 時間ステップと潜在変数の関係 逆拡散過程(Reverse Process)の理論と実装 ノイズスケジューリング(β値の設定)の方法 拡散モデルによるデータ生成の実践
◼️概要 ニューラルネットワークを用いた生成モデルの基礎について学びます。従来の分類モデルとは異なり、生成モデルは入力データの特徴を潜在変数として保存し、その潜在変数から新たなデータを生成することができます。本回では、オートエンコーダー(AE)と変分オートエンコーダー(VAE)という基本的な生成モデルについて理解を深め、実装を通じて生成AIの基礎技術を習得します。 ◼️コース内容 生成AIエンジニア講座(全6回) 第三回:ニューラルネットワークによる生成モデル 目的:データ生成の仕組みを理解し、オートエンコーダーおよび変分オートエンコーダーの実装方法を学ぶ 対象者:第一回・第二回を受講した方、またはニューラルネットワークとCNNの基礎知識を持つ方 内容: 生成モデルの基本概念と分類モデルとの違い オートエンコーダー(AE)の構造と実装 潜在ベクトルの概念と活用方法 変分オートエンコーダー(VAE)の理論と実装
◼️概要 生成AIの画像生成モデルで広く使われているU-Netを中心に、畳み込みニューラルネットワーク(CNN)について学びます。U-Netは医療分野のセマンティック・セグメンテーションのために開発されたモデルですが、現在では拡散モデルなど多くの生成AIアーキテクチャの基盤となっています。本回では、CNNの基本原理からU-Netの構造と機能について理解を深めていきます。 ◼️コース内容 生成AIエンジニア講座(全6回) 第二回:畳み込みニューラルネットワーク 目的:画像認識・生成の基盤となるCNNの仕組みを理解し、特にU-Netの構造と応用方法を学ぶ 対象者:第一回を受講した方、または基本的なニューラルネットワークの知識を持つ方 内容: 畳み込みニューラルネットワーク(CNN)の基本原理 画像認識におけるCNNの役割 U-Netのアーキテクチャと特徴