著者SebastianRaschka(著) クイープ(訳) 巣籠悠輔(監訳)出版社マイナビ出版発売日2025年02月ISBN9784839987800ページ数367Pキーワードつくりながらまなぶえるえるえむじさくにゆうもんつく ツクリナガラマナブエルエルエムジサクニユウモンツク らしゆか せばすちやん RAS ラシユカ セバスチヤン RAS9784839987800内容紹介本書は、GPT型のLLM (大規模言語モデル) を一から理解して構築するために書かれました。
テキストデータの扱い方とAttentionメカニズムのコーディングの基礎を理解した後、完全なGPTモデルの実装に取り組みます。
本書の特徴は、LLMの構築プロセス全体を包括的にカバーしていることです。
これには、モデルアーキテクチャを実装するためのデータセットの扱い方から、ラベルなしデータでの事前学習、そして特定のタスク向けのファインチューニングまでが含まれています。
本書を最後まで読めばLLMの仕組みがしっかりと理解でき、独自のモデルを構築するためのスキルを身につけることができるでしょう。
作成するモデルは大規模な基礎モデルに比べれば規模は小さいものの、基になっている概念は同じです。
最先端のLLMの構築に使われている中核的なメカニズムやテクニックを理解するための強力なツールとなるでしょう。
[対象読者]・LLMの仕組みを理解し、独自のモデルを一から構築する方法を学びたいと考えている機械学習の愛好家、エンジニア、学生・本書はPyTorchを活用しており、事前にPythonプログラミングを理解している必要があります。
・機械学習、ディープラーニング、人工知能(AI)の知識があれば役立ちますが、幅広い知識や経験は必要ありません。
・高校レベルの数学、ベクトルや行列の知識は本書を理解する助けとなりますが、高度な数学の知識は不要です。
[目次]1章 大規模言語モデルを理解する2章 テキストデータの準備3章 Attentionメカニズムのコーディング4章 テキストを生成するためのGPTモデルを一から実装する5章 ラベルなしデータでの事前学習6章 分類のためのファインチューニング7章 指示に従うためのファインチューニング付録A PyTorch 入門付録B 参考資料付録C 練習問題の解答付録D 訓練ループに高度なテクニックを追加する付録E LoRAによるパラメータ効率のよいファインチューニング“Build a Large Language Model (from Scratch)”(Manning Publishing 刊)の日本語版
※本データはこの商品が発売された時点の情報です。
目次1 大規模言語モデルを理解する/2 テキストデータの準備/3 Attentionメカニズムのコーディング/4 テキストを生成するためのGPTモデルを一から実装する/5 ラベルなしデータでの事前学習/6 分類のためのファインチューニング/7 指示に従うためのファインチューニング/A PyTorch入門/B 参考資料/C 練習問題の解答/D 訓練ループに高度なテクニックを追加する/E LoRAによるパラメータ効率のよいファインチューニング
0.0 (0件)