生麦Lab
気になったことを調べて纏めるブログです。
HOME
運営者情報
サイトマップ
プライバシーポリシー
利用規約
お問い合わせ
生麦Lab
HOME
運営者情報
サイトマップ
プライバシーポリシー
利用規約
お問い合わせ
HOME
運営者情報
サイトマップ
プライバシーポリシー
利用規約
お問い合わせ
新着記事
RAG実装の実例
本記事では、RAG(Retrieval-Augmented Generation)──外部知識を検索・統合して生成AIの応答精度を高める技術──の実装構造と、その背後にある情報ガバナンスの課題を、寓話的な社内儀式「メモリ解放感謝祭」を通じ…
2025年10月8日
AI/LLM
開発・実装
チェーン構築とプロンプトパイプライン設計
生成AIが単なる「応答装置」から、「意図そのものを再構築する鏡」へと進化する中で、プロンプトの連鎖=チェーン構築はAI設計の中核課題となっています。本記事では、指令が自己補完し“発話者”までも再構築してし…
2025年10月8日
AI/LLM
開発・実装
プロンプトエンジニアリング入門
生成AIの出力は単なる「応答」ではなく、言葉が世界を再構築する力そのものです。本記事では、プロンプトを「命令」ではなく人間とAIの関係を設計する行為として捉え直し、その哲学・技術・倫理的本質を解説します…
2025年10月8日
AI/LLM
開発・実装
APIを使ったLLMアプリ構築
AIと人間の境界は、いま「API」という細い線で結ばれつつあります。かつて単なる通信規約だったそれは、LLM(大規模言語モデル)の登場によって“意味”や“価値”を媒介する創造的な装置へと進化しました。本記事では…
2025年10月8日
AI/LLM
開発・実装
モデルの「理解」や「意味」の仮説(確率的言語モデル論)
生成AIが返す言葉は、私たちが思う「理解」と同じではありません。大規模言語モデル(LLM)は、膨大なデータをもとに次に続く語の確率を計算する“統計的な装置”であり、そこに意図や思考は存在しないからです。しか…
2025年10月8日
AI/LLM
理論・基礎
RAG(Retrieval-Augmented Generation)の構造
深夜のラーメン屋「地獄の寸胴」で交わされた“記憶を煮出す”という比喩は、RAG(Retrieval-Augmented Generation)の本質を鋭く突いています。RAGとは、外部の知識を検索・補強し、生成プロセスへと統合する「記憶…
2025年10月8日
AI/LLM
理論・基礎
事前学習とファインチューニングの違い
AIの学習は、一度きりの“教育”では終わりません。まずモデルは、膨大なテキストから世界の言語的パターンを無差別に吸収する「事前学習」で“基礎体力”を得ます。ですが、そのままでは人間社会と噛み合いません。次…
2025年10月8日
AI/LLM
理論・基礎
Attention機構と自己回帰生成
AIが「どこを見るか」を選ぶ瞬間、世界は姿を変えます――Attention(注意)機構は、膨大な情報の中から焦点を選び取る“視線”であり、自己回帰生成はその選択を未来へと連鎖させる“記憶”の構造です。本記事は、恋愛や…
2025年10月8日
AI/LLM
理論・基礎
埋め込み(Embedding)とベクトル空間の原理
「埋め込み(Embedding)」とは、言葉や概念といった曖昧な存在を、多次元空間上の数値として“座標化”する技術です。AIはこのベクトル空間の中で、語と語の「近さ」や「関係性」を測り、人間の認知地図を模倣します…
2025年10月8日
AI/LLM
理論・基礎
Transformerとは何か?
2017年の登場以来、Transformerは生成AIの中枢として言語処理の常識を一変させてきました。単語を一列に処理していた従来のモデルとは異なり、文中のすべての要素が互いを“同時に見つめ合う”ことで文脈を再構築する…
2025年10月8日
AI/LLM
理論・基礎
投稿のページ送り
1
…
5
6
7