はてぶ・Qiita・Zennのトレンド記事を紹介
LLM(大規模言語モデル)は、大量のテキストデータを学習したAIモデルです。ChatGPTなどの自然言語処理AIの基盤となっています。
松尾研LLM講座申し込み締切もうすぐ!! & 2024 年講座の思い出 - ぽ靴な缶 🔖 35
大規模言語モデル講座 応用編 2025 Autumn - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab 2025/11/19(水) AM10:00 まで!!! 社会人枠もあります。自分は前年に参加してとても良かったのでおすすめしています。 今年は内容がボリュームア
ステートレスなLLMでステートフルなAI agentを作る - YAPC::Fukuoka 2025 🔖 28
おしゃべりAIサービス Cotomo (https://cotomo.ai/) の開発のために必要な、ステートフルなAI agentを作る技術についてお話します。 「LLM」と「AI agent」の決定的な違いはなんでしょうか。そもそも「AI agent」の定義が人それぞれなので
ローカルLLMのPoCに300万円使う前に読んでほしい話|dx_note 🔖 558
はじめに製造業でローカルLLMの導入が話題になっています。 「ChatGPTは便利だけど、機密情報を扱えない」 「社内にサーバーを置けば、安全に生成AIが使えるらしい」 「最近のローカルLLMは性能が高いと聞いた」 こういった期待を持って、ITベンダーに相談する。担当者は丁寧にヒ
こちらのイベントに参加するためのネタとして自宅のPC(RTX3060)で青空文庫のデータセットを使ってトークナイザーを自作しGPT-2アーキテクチャの42.1Mのモデルでの事前学習をやってみました。https://aimeetup.connpass.com/event/3676
LLM開発の裏で行われるデバッグ作業: PyTorch DCP 🔖 6
はじめにTuring CTO室に所属している東京科学大学(Institute of Science Tokyo)の藤井です。本記事は、LLM, VLM開発の裏で行われるリアルなデバッグ作業の様子を紹介します。LLM, VLMの開発の裏には本記事で紹介するような地道なデバッグ
LLM開発の裏で行われるデバッグ作業: PyTorch DCP 🔖 6
はじめにTuring CTO室に所属している東京科学大学(Institute of Science Tokyo)の藤井です。本記事は、LLM, VLM開発の裏で行われるリアルなデバッグ作業の様子を紹介します。LLM, VLMの開発の裏には本記事で紹介するような地道なデバッグ
【ミッション型インターン体験記】LLM Ops/Observability基盤の選定とLangfuseの構築 🔖 4
はじめに こんにちは!初めまして! 東京工科大学 学部2年の 広瀬エイトル(@Heitor_Hiro ...
AI普及で優秀な人の仕事は減り、能力の低い人の仕事が増えた? LLMで「実力主義」が崩壊(生成AIクローズアップ) | テクノエッジ TechnoEdge 🔖 239
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポッ
企業が今「ローカルLLM」を求める切実なワケ 導入の背景、流れ、費用、注意点を徹底解説 🔖 31
企業が今「ローカルLLM」を求める切実なワケ 導入の背景、流れ、費用、注意点を徹底解説:IT導入完全ガイド 生成AIの業務活用が進む一方、クラウド利用のセキュリティ懸念は根強い。その解決策として、自社環境でLLMを運用する「ローカルLLM」が注目を集めている。なぜ今、この選択肢が
CA Tech JOB参加報告:検索機能付きLLMによる広告文自動生成 🔖 1
はじめに こんにちは!武蔵野大学大学院修士1年の白川桃子と申します.こちらの記事では,2025年8 ...
【図解】ChatGPTなど、TransformerのLLMの仕組み 🔖 1
はじめに世界的にLLMの導入が進んでいますが、意外と仕組みは知られていないと感じています。ですが、仕組みを知っていれば、思わぬ失敗を防いだり、よりよい活用ができると考えています。そこで、この記事を書くことにしました。O'Reillyの「直感 LLM」で学んだことが中心
テキストなしで LLM 同士が“通じ合う”手法:Cache-to-Cache(C2C)について 🔖 11
最近、とても面白い論文を読んだので共有します。複数の LLM を組み合わせるとき、テキストで対話させるのをやめて、モデル内部の表現(KV-Cache)を直接やり取りするというアイデアです。手法名は Cache-to-Cache(C2C)。テキスト生成の待ち時間を省きつつ、モ...
自分のTweetを学習させてクローンLLMを作りたい 🔖 5
自分のクローンAIを作ろう皆さん、こんにちは。皆さんは自分がもう一人いたらいいなと思ったことはありませんか?ないですよね、僕もないです。(じゃあタイトルなんなんだ)このの記事はローカルLLMに向き合う会のアドカレネタとして書いています。https://qiita...
「進捗を更新して」で進捗管理が終わる世界 〜LLMとの協働で変わったプロジェクト運用 🔖 1
こんにちは。タイミーでデータサイエンティストをしている吉川です。 最近、生成AIを使ったプロジェクト管理の仕組みを試しているのですが、想像以上に働き方が変わったので、その体験を共有したいと思います。 TL;DR 「進捗を更新して」の一言で、5つの管理ファイルが自動更新される仕組み
2025/10/23に開催された「Product Engineering Night #10 ── LLM活用プロダクトとPdE実践の最前線」に、IVRyのべいえりあが登壇しました。 ■リンク集 ・コーポレートサイト:https://ivry.jp/company/ ・採用ページ
2025/11/04 Builders Flash にて "AWS と LiteLLM で実現する、セキュアで柔軟な AI エージェント基盤のアーキテクチャ" を公開しました 🔖 16
弊社のAI駆動開発チームの中山が、Amazon Web Service (AWS) のブログメディアである、Builders Flash にて記事を寄稿しました。 AIエージェントを安全かつ効率的に処理するプロキシ基盤を、LiteLLM を通じて利用するアーキテクチャを紹介してお
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 44
モチベーション 長い文章を読むのは全く億劫だ。 頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳! そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。 文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
LLMに渡す前に関連しない文を削除するモデル OpenProvence を公開 - A Day in the Life 🔖 101
昨今、LLMが回答するための「良い知識」を作るために、検索を行い情報を集め、さらに足りない知識を補うために多方面のさまざまな検索クエリを作り検索結果から必要な情報だけを抽出したり…といったことを、再起的に行っています。AI Agent、DeepResearch、Context E
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 44
モチベーション長い文章を読むのは全く億劫だ。頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳!そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 44
モチベーション長い文章を読むのは全く億劫だ。頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳!そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
DGX Sparkと「nanochat」でゼロから丸一日学習させてLLMを自作してみた 🔖 38
nanochatとは OpenAI共同設立者、元テスラディレクターであり。バイブコーディング・コンテキストエンジニアリングといった言葉を生み出したAndrej Karpathy氏が公開したソフトウェアです。 なんと、ChatGPTのような対話可能なLLMを、規模こそ違えど約100
Evaliteによるlocal nativeなLLM evals実行環境 🔖 4
こちらはLayerX AI エージェントブログリレー34日目の記事です。 こんにちは、CEO室でAI Agent開発のPdMをやっているKenta Watanabeです。 先日の記事に続いてeval関連の話題になります。 AIエージェントやLLMを使ったサービス開発をされている方
LLMのキモい算術 - ジョイジョイジョイ 🔖 368
LLMは「226-68=」のようなプロンプトを与えると「158」と計算してくれますが、この計算は我々が想像するよりも奇妙な方法で行っていることを紹介します [Nikankin+ICLR 2025]。 まずは前提条件を確認します。思考の連鎖は使わず、「226-68=」のようなプロン
DGX Sparkと「nanochat」でゼロから丸一日学習させてLLMを自作してみた 🔖 38
nanochatとはOpenAI共同設立者、元テスラディレクターであり。バイブコーディング・コンテキストエンジニアリングといった言葉を生み出したAndrej Karpathy氏が公開したソフトウェアです。https://github.com/karpathy/nanochat
統一的プロンプトの終焉:もはやllmモデルに互換性はありません 🔖 249
統一的プロンプトの終焉:もはやllmモデルに互換性はありませんWhy LLM models are no longer interchangeableの意訳です。 開発者やプロダクトビルダーにとって、この数年間はLLMがアプリケーション開発を導いてきました。プロダクトを改善したい
プレイブックに基づく契約書レビューにおけるLLMの性能検証 🔖 2
こんにちは、株式会社LegalOn TechnologiesのAIセクションチームです。LegalOn Technologiesでは、日本の法務分野における自然言語処理(NLP)のための包括的なベンチマークデータセット、LegalRikaiを作成しています。LegalRikaiは
日本語で使いやすい。おすすめのローカルLLM3選 🔖 192
日本語で使いやすい。おすすめのローカルLLM3選2025.10.25 21:008,373 かみやまたくみ ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのような
ここが変だよLLMコーディングエージェント(Codex) 🔖 104
はじめに 最近LLMコーディングエージェント(主にCodex)tipsを書きましたが、やっぱりLLMコーディングエージェントは、頼りにしすぎてはいけない、重要なところは自分で書こうという思いが強まってきています。 どういうとこが変なのかをまとめることで、なぜそう感じるのかを説明し
ここが変だよLLMコーディングエージェント(Codex) 🔖 104
はじめに最近LLMコーディングエージェント(主にCodex)tipsを書きましたが、やっぱりLLMコーディングエージェントは頼りにしすぎてはいけない、重要なところは自分で書こうという思いが強まってきています。どういうとこが変なのかをまとめることで、なぜそう感じるのかを説明した
LLMの責務を最小化する設計 — Claude Codeの中身は50代のベテランエンジニアかもしれない件 🔖 7
TL;DR本記事は、著者自身の振り返りとClaude Codeの分析を通して得た気づきを共有するものです。要点は下記です:Deep Learning時代のEnd-to-End学習の成功体験が、汎用LLM時代では逆に足かせになっているのではないか汎用性が高すぎるLLMには、
LLM回答精度検証でテストデータやテストケースケースをAIに作ってもらう - $shibayu36->blog; 🔖 31
RAGでのデータ整形(改行・インデント)がLLMの回答精度に与える影響を検証したでは、ダミーのテストデータやテストケースを色々作っている。実はこのデータはAIと壁打ちしながら作ったので、やり方を共有する。 ダミーのテストデータを作る まずslack-explorer-mcpのメッ
真の無料ChatGPT。ローカルLLM「gpt-oss-20b」の動かし方を徹底解説 🔖 244
真の無料ChatGPT。ローカルLLM「gpt-oss-20b」の動かし方を徹底解説2025.10.19 08:00 かみやまたくみ 2025年8月にOpenAIが公開したオープンウェイト言語モデル(≒ローカルLLM)「gpt-oss-20b」。優秀で利用価値が高いAIモデルのひ
Ryzen AI Max+ 395 で LLM 推論速度を比較 🔖 32
はじめに AMD Ryzen AI Max+ 395 を搭載した EVO-X2 で、gpt-oss:20b を CPU/GPU/NPU で動作させて処理速度を比較します。 測定環境 プロセッサ: AMD Ryzen AI Max+ 395(16コア) OS: Windows 11
RAGでのデータ整形(改行・インデント)がLLMの回答精度に与える影響を検証した - $shibayu36->blog; 🔖 121
slack-explorer-mcpでは、該当メッセージのpermalink URLをレスポンスで返さずに、利用側のAI Agentで組み立ててもらっている。なぜなら、permalinkをメッセージごとに返してしまうとトークン消費量が非常に多くなってしまうからだ。permalin
Ryzen AI Max+ 395 で LLM 推論速度を比較 🔖 32
はじめにAMD Ryzen AI Max+ 395 を搭載した EVO-X2 で、gpt-oss:20b を CPU/GPU/NPU で動作させて処理速度を比較します。!本記事は Claude Code の生成結果をベースに編集しました。 測定環境プロセッサ:
実サービスへの搭載に向けたLLM AgentとMeta Agentの研究開発 🔖 20
はじめに こんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)です。最近のLabチームの取り組みの1つとして行ってきたLLMエージェント開発の概要とELYZAにおける研究開発の内容について紹介します。 大規模言語モデル(LLM)は単なる対話システムを超えて「
第883回 Minisforum AI X1 PROでLLMを高速に動作させる | gihyo.jp 🔖 41
今回はベアボーンのMinisforum AI X1 PROにUbuntu 24.04.3をインストールし、さらにROCm 6.4.4とllama.cppを組み合わせてLLMを高速に動作させます。 ミニPCでLLM 筆者はこれまで、主にディスクリートGPU(グラフィックボード、以下
「LLM搭載プロダクトの品質保証の模索と学び」の発表まとめと補足 🔖 1
こんにちは!レバレッジ推進ユニットでQAエンジニアをやっているark265です。今回はQA Test Talk Vol.5で同じユニットのgonkmが発表した「LLM搭載プロダクトの品質保証の模索と学び」の発表内容のまとめと内容の補足を書いていこうと思います。 発表資料 レバレッ
実サービスへの搭載に向けたLLM AgentとMeta Agentの研究開発 🔖 20
はじめにこんにちは、ELYZA Labチームの佐藤 (@shoetsu_sato)です。最近のLabチームの取り組みの1つとして行ってきたLLMエージェント開発の概要とELYZAにおける研究開発の内容について紹介します。大規模言語モデル(LLM)は単なる対話システムを超えて「
LLMのコーディングエージェントを効率よく使うために 🔖 58
前提 私が現在使っているLLMコーディングエージェントは下記です。 Codex(proプラン $200) Cursor(proプラン $20) Gemini(workspace Business) 1年前にclineを使いはじめ、今年の春ごろにmaxプランでClaude Code
Huawei、LLMの精度を保持したまま最大70%メモリ削減できる新手法を発表──コンシューマーGPUでの高精度生成AI実行も視野に | Ledge.ai 🔖 84
Top > 学術&研究 > Huawei、LLMの精度を保持したまま最大70%メモリ削減できる新手法を発表──コンシューマーGPUでの高精度生成AI実行も視野に
LLM×強化学習の新しいパラダイム: Agentic RLの研究紹介 🔖 41
はじめに 本記事では、LLM研究で注目を集めるエージェント型強化学習(Agentic Reinforcement Learning、Agentic RL)のサーベイ論文 「The Landscape of Agentic Reinforcement Learning for LL
ライオン、独自LLMを内製へ 社内の“暗黙知”を学習、AWSが協力 🔖 53
生活用品大手のライオンは10月8日、自社の研究開発データで追加学習した独自の大規模言語モデル(LLM)の開発に着手したと発表した。アマゾンウェブサービスジャパンの協力を受けながら内製する。 自社の長年の経験から培われた知見や暗黙知をLLMに反映。過去の知見を踏まえた具体的なアドバ
google/LangExtract解剖- LLMで抽出した項目の文書内位置特定ロジックを深堀る 🔖 3
!本稿は2025/10/04時点のLangExtractのソースコードを元に記述しています。 google/LangExtractとはhttps://github.com/google/langextractLangExtractは2025年7月にGoogleが発表し
google/LangExtract解剖- LLMで抽出した項目の文書内位置特定ロジックを深堀る 🔖 3
!本稿は2025/10/04時点のLangExtractのソースコードを元に記述しています。 google/LangExtractとはhttps://github.com/google/langextractLangExtractは2025年7月にGoogleが発表し