vinsmoke-three ドキュメントへようこそ¶
機械学習・深層学習の実践的な学習リソース
このサイトは、PyTorchを中心とした機械学習・深層学習の知識とノウハウを体系的にまとめた日本語の技術ドキュメントサイトです。
🎯 このサイトの特徴¶
- 実践重視: 実際に動作するコードと詳細な解説
- 段階的学習: 初心者から上級者まで、段階的に学習できる構成
- 日本語解説: 複雑な技術概念をわかりやすい日本語で説明
- 最新技術: TransformerやVision Transformerなど最新の研究成果を含む実装
技術スタック¶
機械学習・深層学習¶
- PyTorch - テンソル操作、ニューラルネットワーク、コンピュータビジョン、転移学習、実験追跡、モデルデプロイ
大規模言語モデル・自然言語処理¶
- Transformers - アーキテクチャ理解、ライブラリ活用、パイプライン操作、トークナイザー、実践的実装
データサイエンス¶
準備中
Web開発¶
準備中
クラウド・インフラ¶
準備中
学習ガイド¶
初心者向け¶
- PyTorch fundamentals - テンソル操作とPyTorchの基本概念
- PyTorch workflow - 機械学習プロジェクトの基本的な流れ
中級者向け¶
- PyTorch classification - 分類問題の実装
- PyTorch computer vision - コンピュータビジョンとFashionMNIST画像分類
- PyTorch custom datasets - カスタムデータセットと画像分類モデルの構築
上級者向け¶
- PyTorch modular - コードのモジュール化と再利用可能なMLパイプラインの構築
- PyTorch transfer learning - 転移学習で事前学習済みモデルを活用した高精度画像分類
- PyTorch experiment tracking - TensorBoardを使った実験追跡と複数モデルの体系的比較
- PyTorch paper replicating - Vision Transformerを一から実装してFoodVision Miniに適用する
- PyTorch model deployment - FoodVision Bigの構築とHugging Face Spacesへの公開
大規模言語モデル・自然言語処理¶
基礎理論¶
- Transformerの図解 - 「Attention is All You Need」論文のTransformerアーキテクチャを図解で詳しく解説
実装・実践¶
- Transformer Models - Transformerモデルの基本概念、NLPとLLMの違い、実装の基礎
- Using Transformers - Hugging Face Transformersライブラリの実践的な使い方、pipelineの仕組み、モデルとトークナイザーの操作
- Fine-tuning a pretrained model - 事前訓練済みモデルのファインチューニング、Trainer APIとカスタム訓練ループの実装
- Hugging Face Tokenizersライブラリの完全ガイド - 高速トークナイザーの仕組みと実装、BPE・WordPiece・Unigramアルゴリズムの詳細解説
- GPTをゼロから構築する完全ガイド - PyTorchでGPTモデルを一から実装。Self-Attention、位置エンコーディング、重み初期化、テキスト生成アルゴリズムまで詳細解説
- Hugging Face Datasetsライブラリの完全ガイド - データセットの読み込み、前処理、保存、FAISSを使った意味検索システムの構築まで実践的に解説
Classical NLP Tasks¶
- Token Classification - Transformersを使ったトークン分類:固有表現認識(NER)の実践ガイド
- Masked Language Modeling - BERTライクなモデルのマスク言語モデルのファインチューニング
- Summarization - Transformersを使ったテキスト要約タスクの実装
- Translation - ニューラル機械翻訳モデルの構築と評価
- Causal Language Modeling - GPTライクなモデルの訓練とテキスト生成
- Question Answering - 抽出型質問応答システムの実装