Inhalt bereitgestellt von iwashi. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von iwashi oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
Player FM - Podcast-App
Gehen Sie mit der App Player FM offline!
Gehen Sie mit der App Player FM offline!
107. LLMをゼロから作るということ w/ Takahiro Omi
MP3•Episode-Home
Manage episode 383875982 series 2451650
Inhalt bereitgestellt von iwashi. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von iwashi oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
ストックマークの近江さんをゲストに、大規模言語モデルをゼロから作る方法、学習のデータセット、モデルアーキテクチャ、学習環境への取り組みなどについて語っていただきました。
話したネタ
- どのような大規模言語モデルと作ったのか?特徴は何か?
- データセットに何を使ったのか?
- 日本語と英語とのバランスは?
- 最終的なToken数は?
- 事前学習モデルを作りたいとして、何から考えるのか?
- ノイズのクリーニングと、その方法
- 今回活用したモデルアーキテクチャ(Llama)
- 前回のアーキテクチャは GPT-NeoX
- 今回の学習環境は?
- AWS Trainum 32コア x 16ノード
- 学習にかかった時間は?
- 学習時に大変だったこと・上手くいかなかったことは?
- 学習中のチェックポイントとは何か?
- なぜ、Token生成が速いのか?
- 手元でLLMを動かすときの一番のネックは?
- bit数を落とすFineTuning
- Tokenizerとは何か?
- 日本語の単語区切りはどのように考えるのか?
- 今回のLLM作成のTokenizerは何を使ったのか?
- ビジネスドメインでのLLM評価
- ストックマーク株式会社のRecruitページ
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
127 Episoden
MP3•Episode-Home
Manage episode 383875982 series 2451650
Inhalt bereitgestellt von iwashi. Alle Podcast-Inhalte, einschließlich Episoden, Grafiken und Podcast-Beschreibungen, werden direkt von iwashi oder seinem Podcast-Plattformpartner hochgeladen und bereitgestellt. Wenn Sie glauben, dass jemand Ihr urheberrechtlich geschütztes Werk ohne Ihre Erlaubnis nutzt, können Sie dem hier beschriebenen Verfahren folgen https://de.player.fm/legal.
ストックマークの近江さんをゲストに、大規模言語モデルをゼロから作る方法、学習のデータセット、モデルアーキテクチャ、学習環境への取り組みなどについて語っていただきました。
話したネタ
- どのような大規模言語モデルと作ったのか?特徴は何か?
- データセットに何を使ったのか?
- 日本語と英語とのバランスは?
- 最終的なToken数は?
- 事前学習モデルを作りたいとして、何から考えるのか?
- ノイズのクリーニングと、その方法
- 今回活用したモデルアーキテクチャ(Llama)
- 前回のアーキテクチャは GPT-NeoX
- 今回の学習環境は?
- AWS Trainum 32コア x 16ノード
- 学習にかかった時間は?
- 学習時に大変だったこと・上手くいかなかったことは?
- 学習中のチェックポイントとは何か?
- なぜ、Token生成が速いのか?
- 手元でLLMを動かすときの一番のネックは?
- bit数を落とすFineTuning
- Tokenizerとは何か?
- 日本語の単語区切りはどのように考えるのか?
- 今回のLLM作成のTokenizerは何を使ったのか?
- ビジネスドメインでのLLM評価
- ストックマーク株式会社のRecruitページ
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
127 Episoden
Alle Folgen
×Willkommen auf Player FM!
Player FM scannt gerade das Web nach Podcasts mit hoher Qualität, die du genießen kannst. Es ist die beste Podcast-App und funktioniert auf Android, iPhone und im Web. Melde dich an, um Abos geräteübergreifend zu synchronisieren.