生麦Lab
気になったことを調べて纏めるブログです。
HOME
運営者情報
サイトマップ
プライバシーポリシー
利用規約
お問い合わせ
生麦Lab
HOME
運営者情報
サイトマップ
プライバシーポリシー
利用規約
お問い合わせ
HOME
運営者情報
サイトマップ
プライバシーポリシー
利用規約
お問い合わせ
HOME
AI/LLM
「AI/LLM」の記事一覧
チェーン構築とプロンプトパイプライン設計
生成AIが単なる「応答装置」から、「意図そのものを再構築する鏡」へと進化する中で、プロンプトの連鎖=…
2025年10月8日
AI/LLM
開発・実装
プロンプトエンジニアリング入門
生成AIの出力は単なる「応答」ではなく、言葉が世界を再構築する力そのものです。本記事では、プロンプト…
2025年10月8日
AI/LLM
開発・実装
APIを使ったLLMアプリ構築
AIと人間の境界は、いま「API」という細い線で結ばれつつあります。かつて単なる通信規約だったそれは、LL…
2025年10月8日
AI/LLM
開発・実装
モデルの「理解」や「意味」の仮説(確率的言語モデル論)
生成AIが返す言葉は、私たちが思う「理解」と同じではありません。大規模言語モデル(LLM)は、膨大なデー…
2025年10月8日
AI/LLM
理論・基礎
RAG(Retrieval-Augmented Generation)の構造
深夜のラーメン屋「地獄の寸胴」で交わされた“記憶を煮出す”という比喩は、RAG(Retrieval-Augmented Gene…
2025年10月8日
AI/LLM
理論・基礎
事前学習とファインチューニングの違い
AIの学習は、一度きりの“教育”では終わりません。まずモデルは、膨大なテキストから世界の言語的パターン…
2025年10月8日
AI/LLM
理論・基礎
Attention機構と自己回帰生成
AIが「どこを見るか」を選ぶ瞬間、世界は姿を変えます――Attention(注意)機構は、膨大な情報の中から焦点…
2025年10月8日
AI/LLM
理論・基礎
埋め込み(Embedding)とベクトル空間の原理
「埋め込み(Embedding)」とは、言葉や概念といった曖昧な存在を、多次元空間上の数値として“座標化”する…
2025年10月8日
AI/LLM
理論・基礎
Transformerとは何か?
2017年の登場以来、Transformerは生成AIの中枢として言語処理の常識を一変させてきました。単語を一列に処…
2025年10月8日
AI/LLM
理論・基礎
出力評価指標の基礎:Precision/Recall/BLEUを正しく使い分ける方法
AIモデルの性能をどう評価し、どの指標を採用するかは、単なる技術論ではなく“戦略”そのものです。Precisi…
2025年10月2日
AI/LLM
設計・戦略
投稿のページ送り
1
2
3
4