Updated Sep/16/2023 by

Large Language Model

大規模言語モデル入門



大規模言語モデル入門
山田 育矢 (監修), 鈴木 正敏 (著), 山田 康輔 (著), 李凌寒 (著)
出版社 : 技術評論社 (2023/7/29)
ISBN-10 : 4297136333
ISBN-13 : 978-4297136338
本の情報: Amazon Japan   (Amazonの説明より抜粋) 大規模言語モデルの理論と実装の両方を解説した入門書。大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指す。
本の情報: 技術評論社
サポートページ(ソースコード、正誤表含む): github
学内のみアクセス可: ソースコード (zipファイル   展開)
個人メモ(nitta)
訓練したモデル: GoogleDrive

前半では、word2vec から ChatGPT に至るまでの技術的な変遷を系統立てて理解する。

後半では、代表的な自然言語処理タスクについて transformers などを使って手を動かしながら、 自然言語処理モデルの開発を学ぶ。

目次

第1章 はじめに

transformer を動かしながら、単語埋め込みなど大規模言語モデルの概要について理解する。

第2章 Transformer

Transformer の仕組みを、各構成要素から理解する。

第3章 大規模言語モデルの基礎

代表的な大規模言語モデルである GPT, BERT, T5 の事前学習、fine tuning, transformer での基本的な使い方を理解する。

第4章 大規模言語モデルの進展

ChatGPT に代表される、テキスト生成能力を持つ大規模言語モデルの近年の展開を理解する。

第5章 大規模言語モデルのファインチューニング

標準的なデータセット JGLUE に含まれる4つのタスク(感情分析、自然言語推論、意味的類似度計算、多肢選択式質問応答) について、transformers を使った実装について学ぶ。
[注意] MARC-ja データセットが(少なくとも Sep/15/2023 時点では)アクセスできないので、代わりのデータセット wrime を使って動作させる。

5.1: 日本語ベンチマーク:JGLUE

5.2: 感情分析モデルの実装

5.3: 感情分析モデルのエラー分析

5.4: 自然言語推論・意味的類似度計算・多肢選択式質問応答モデルの実装

5.4.1: 自然言語推論: 5-4-2: 意味的類似度計算: 5-4-3: 多肢選択式質問応答:

5.5: メモリ効率の良いファインチューニング

5.6: 日本語大規模言語モデルの比較

第6章 固有表現認識

系列ラベリングを用いて、固有表現認識モデルを開発する。

第7章 要約生成

系列変換を用いた要約生成モデルを作成する。

第8章 文埋め込み

文を一つのベクトルとみなして表現する文埋め込みモデルを開発する。

第9章 質問応答

ChatGPT を API 経由で使用して、日本語のクイズ問題を解く質疑応答システムを開発する。

関連情報


Yoshihisa Nitta

http://nw.tsuda.ac.jp/