はてぶ・Qiita・Zennのトレンド記事を紹介
LLM(大規模言語モデル)は、大量のテキストデータを学習したAIモデルです。ChatGPTなどの自然言語処理AIの基盤となっています。
評価駆動開発で趣味のLLMアプリを育てきってみた【やり抜く!】 🔖 14
はじめまして。Insight Edgeデータサイエンティストのnakanoです。 LLMアプリケーションの開発において、「とりあえず動くもの」を作ることは比較的容易です。しかし、実用的なレベルにまで仕上げることは難しい課題です。その理由は、LLMアプリの良し悪しを測る評価軸が
アドベントカレンダーをLLMで書くくらいなら何も書かない方がいい。 🔖 138
アウトプットLLMideaDiscussion
アドベントカレンダーをLLMで書くくらいなら何も書かない方がいい。 🔖 138
はじめにこれから話すのは地雷の話で、踏むまではそれを知らない人もいるが一発の被弾が致命傷になる話だ。誰も話してくれないが、静かに起こっているアウトプットへの変化、そのムードについて書く。ムードなので定量的な話ではないが、その辺は差し引いて意見の一つとして読んで欲しい。
業務で進むLLM活用、その裏に潜む脅威とは?Microsoft 365 Copilotを介した攻撃検証(インターン体験記) 🔖 39
こんにちは、NTTドコモグループの現場受け入れ型インターンシップに「D2:攻撃者視点に立ち攻撃技術を研究開発するセキュリティエンジニア」ポストで参加させていただきました、太田です。 本記事では、本インターンシップでの取り組みについて紹介いたします。 NTTドコモグループのセキュリ
AIで攻撃者視点を強化する:LLMによるRed Teamオペレーション高度化検討(インターン体験記) 🔖 28
こんにちは、NTTドコモグループの現場受け入れ型インターンシップに「D2:攻撃者視点に立ち攻撃技術を研究開発するセキュリティエンジニア」ポストで参加させていただきました、島田です。 本記事では、本インターンシップでの取り組みについて紹介いたします。 NTTドコモグループのセキュリ
訓練データ1個だけでLLMの推論性能を倍にする - ジョイジョイジョイ 🔖 93
推論能力を高めるためには、LLM の事後訓練で使う訓練データは 1 つで十分かもしれません。本稿では訓練データを 1 つだけ使った強化学習についての研究 Reinforcement Learning for Reasoning in Large Language Models w
LLMには「方言」がある ─ モデル個性とロックインの話 🔖 1
はじめにここ数年、Gemini / GPT / Claude / Grok / Llama / DeepSeek / Qwen など、大規模言語モデル(LLM)が次々と登場しています。「どのモデルが一番強いか」「どこがAGIに一番近いか」といった議論もとても盛んです。...
ポエム:LLM時代のライブラリ設計、LLMが書きやすいものにした方が良いので泣く泣く方針転換した 🔖 105
株式会社ジェイテックジャパン CTOの高丘 @tomohisaです。 私は Railway Oriented Programming が好きで、C#で実現するために ResultBox というライブラリを作り、自社のイベントソーシングライブラリ Sekiban にも組み込んできま
プロンプトエンジニアリングを全員参加型に!Langfuseで実現するノーコードLLM改善 🔖 51
🎯 この記事で得られること ✅ プロンプト改善のスピードを 1週間→数分 に短縮する方法 ✅ 非技術者でも GUI操作だけで プロンプトを改善できる環境構築 ✅ A/Bテスト を簡単に実装し、効果を定量化する手法 ✅ 問題発生時に 1クリック でロールバックする仕組み はじめに
ポエム:LLM時代のライブラリ設計、LLMが書きやすいものにした方が良いので泣く泣く方針転換した 🔖 105
本当は、今でもRailway Oriented Programmingで書きたい!注:この記事は筆者の考えを書き出したものをLLMを使って編集してまとめ上げています。株式会社ジェイテックジャパン CTOの高丘 @tomohisaです。私は Railway Oriente
ローカルLLM基礎知識 / local LLM basics 2025 🔖 88
2025-11-22に開催された「第1回 ローカルLLMなんでも勉強会」での登壇資料です。
LLMで業務ワークフローを自動生成・最適化する! 〜ワークフロー自動生成・最適化の取り組みについて〜 - LayerX エンジニアブログ 🔖 59
こんにちは。LayerX AI Workforce事業部でR&Dチームのリサーチエンジニアの矢野目です。 こちらはLayerX AI エージェントブログリレー49日目の記事です。前回の記事はKenta WatanabeさんのAIエージェントを開発するPdMがやることをプロ
A2A (Agent2Agent) プロトコルを基礎から学ぶ (1) LLM を使わない複数Agentのサンプル 🔖 24
2025年4月、バラバラに動いていたAIエージェントたちに共通言語を与える画期的な取り組みとして、Googleが「A2A(Agent2Agent)プロトコル」を発表しました。 AI Agentとは?実は明確な定義がありません。これがまずわかりづらさを生み出しています。RA
LLMで業務ワークフローを自動生成・最適化する! 〜ワークフロー自動生成・最適化の取り組みについて〜 🔖 59
こんにちは。LayerX AI Workforce事業部でR&Dチームのリサーチエンジニアの矢野目です。 こちらはLayerX AI エージェントブログリレー49日目の記事です。前回の記事はKenta WatanabeさんのAIエージェントを開発するPdMがやることをプロ
検閲を解除した脱獄版LLMを簡単に生成できるツール「Heretic」 🔖 67
一般的に、大規模言語モデルには不適切な応答を出力しないようにする検閲が取り込まれています。この検閲をオリジナルの性能を可能な限り維持しつつ除去できるツールが「Heretic」です。 GitHub - p-e-w/heretic: Fully automatic censorshi
Dataset({ features: ['text', 'footnote', 'meta'], num_rows: 10246 }) Filtered dataset size: 10,246 entries トークナイザー 青空文庫のデータのみで学習を行うということもあり既
松尾研LLM講座申し込み締切もうすぐ!! & 2024 年講座の思い出 - ぽ靴な缶 🔖 35
大規模言語モデル講座 応用編 2025 Autumn - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab 2025/11/19(水) AM10:00 まで!!! 社会人枠もあります。自分は前年に参加してとても良かったのでおすすめしています。 今年は内容がボリュームア
ステートレスなLLMでステートフルなAI agentを作る - YAPC::Fukuoka 2025 🔖 28
おしゃべりAIサービス Cotomo (https://cotomo.ai/) の開発のために必要な、ステートフルなAI agentを作る技術についてお話します。 「LLM」と「AI agent」の決定的な違いはなんでしょうか。そもそも「AI agent」の定義が人それぞれなので
ローカルLLMのPoCに300万円使う前に読んでほしい話|dx_note 🔖 558
はじめに製造業でローカルLLMの導入が話題になっています。 「ChatGPTは便利だけど、機密情報を扱えない」 「社内にサーバーを置けば、安全に生成AIが使えるらしい」 「最近のローカルLLMは性能が高いと聞いた」 こういった期待を持って、ITベンダーに相談する。担当者は丁寧にヒ
こちらのイベントに参加するためのネタとして自宅のPC(RTX3060)で青空文庫のデータセットを使ってトークナイザーを自作しGPT-2アーキテクチャの42.1Mのモデルでの事前学習をやってみました。https://aimeetup.connpass.com/event/3676
LLM開発の裏で行われるデバッグ作業: PyTorch DCP 🔖 6
はじめにTuring CTO室に所属している東京科学大学(Institute of Science Tokyo)の藤井です。本記事は、LLM, VLM開発の裏で行われるリアルなデバッグ作業の様子を紹介します。LLM, VLMの開発の裏には本記事で紹介するような地道なデバッグ
LLM開発の裏で行われるデバッグ作業: PyTorch DCP 🔖 6
はじめにTuring CTO室に所属している東京科学大学(Institute of Science Tokyo)の藤井です。本記事は、LLM, VLM開発の裏で行われるリアルなデバッグ作業の様子を紹介します。LLM, VLMの開発の裏には本記事で紹介するような地道なデバッグ
【ミッション型インターン体験記】LLM Ops/Observability基盤の選定とLangfuseの構築 🔖 4
はじめに こんにちは!初めまして! 東京工科大学 学部2年の 広瀬エイトル(@Heitor_Hiro ...
AI普及で優秀な人の仕事は減り、能力の低い人の仕事が増えた? LLMで「実力主義」が崩壊(生成AIクローズアップ) | テクノエッジ TechnoEdge 🔖 239
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポッ
企業が今「ローカルLLM」を求める切実なワケ 導入の背景、流れ、費用、注意点を徹底解説 🔖 31
企業が今「ローカルLLM」を求める切実なワケ 導入の背景、流れ、費用、注意点を徹底解説:IT導入完全ガイド 生成AIの業務活用が進む一方、クラウド利用のセキュリティ懸念は根強い。その解決策として、自社環境でLLMを運用する「ローカルLLM」が注目を集めている。なぜ今、この選択肢が
CA Tech JOB参加報告:検索機能付きLLMによる広告文自動生成 🔖 1
はじめに こんにちは!武蔵野大学大学院修士1年の白川桃子と申します.こちらの記事では,2025年8 ...
【図解】ChatGPTなど、TransformerのLLMの仕組み 🔖 1
はじめに世界的にLLMの導入が進んでいますが、意外と仕組みは知られていないと感じています。ですが、仕組みを知っていれば、思わぬ失敗を防いだり、よりよい活用ができると考えています。そこで、この記事を書くことにしました。O'Reillyの「直感 LLM」で学んだことが中心
テキストなしで LLM 同士が“通じ合う”手法:Cache-to-Cache(C2C)について 🔖 11
最近、とても面白い論文を読んだので共有します。複数の LLM を組み合わせるとき、テキストで対話させるのをやめて、モデル内部の表現(KV-Cache)を直接やり取りするというアイデアです。手法名は Cache-to-Cache(C2C)。テキスト生成の待ち時間を省きつつ、モ...
自分のTweetを学習させてクローンLLMを作りたい 🔖 5
自分のクローンAIを作ろう皆さん、こんにちは。皆さんは自分がもう一人いたらいいなと思ったことはありませんか?ないですよね、僕もないです。(じゃあタイトルなんなんだ)このの記事はローカルLLMに向き合う会のアドカレネタとして書いています。https://qiita...
「進捗を更新して」で進捗管理が終わる世界 〜LLMとの協働で変わったプロジェクト運用 🔖 1
こんにちは。タイミーでデータサイエンティストをしている吉川です。 最近、生成AIを使ったプロジェクト管理の仕組みを試しているのですが、想像以上に働き方が変わったので、その体験を共有したいと思います。 TL;DR 「進捗を更新して」の一言で、5つの管理ファイルが自動更新される仕組み
2025/10/23に開催された「Product Engineering Night #10 ── LLM活用プロダクトとPdE実践の最前線」に、IVRyのべいえりあが登壇しました。 ■リンク集 ・コーポレートサイト:https://ivry.jp/company/ ・採用ページ
2025/11/04 Builders Flash にて "AWS と LiteLLM で実現する、セキュアで柔軟な AI エージェント基盤のアーキテクチャ" を公開しました 🔖 16
弊社のAI駆動開発チームの中山が、Amazon Web Service (AWS) のブログメディアである、Builders Flash にて記事を寄稿しました。 AIエージェントを安全かつ効率的に処理するプロキシ基盤を、LiteLLM を通じて利用するアーキテクチャを紹介してお
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 44
モチベーション 長い文章を読むのは全く億劫だ。 頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳! そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。 文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
LLMに渡す前に関連しない文を削除するモデル OpenProvence を公開 - A Day in the Life 🔖 101
昨今、LLMが回答するための「良い知識」を作るために、検索を行い情報を集め、さらに足りない知識を補うために多方面のさまざまな検索クエリを作り検索結果から必要な情報だけを抽出したり…といったことを、再起的に行っています。AI Agent、DeepResearch、Context E
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 44
モチベーション長い文章を読むのは全く億劫だ。頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳!そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
LLMによる文単位抽出を高速・安価に行う- fast-bunkaiの活用 🔖 44
モチベーション長い文章を読むのは全く億劫だ。頼むから知りたいところだけピンポイントに読ませてくれ。ファスト教養万歳!そんな、働いていると本も読めなくなる[1]私たちの嘆きを解決してくれるのがLLMです。文書の中から自分が必要としている文章のみをLLMに抽出してもらえば良い
DGX Sparkと「nanochat」でゼロから丸一日学習させてLLMを自作してみた 🔖 38
nanochatとは OpenAI共同設立者、元テスラディレクターであり。バイブコーディング・コンテキストエンジニアリングといった言葉を生み出したAndrej Karpathy氏が公開したソフトウェアです。 なんと、ChatGPTのような対話可能なLLMを、規模こそ違えど約100
Evaliteによるlocal nativeなLLM evals実行環境 🔖 4
こちらはLayerX AI エージェントブログリレー34日目の記事です。 こんにちは、CEO室でAI Agent開発のPdMをやっているKenta Watanabeです。 先日の記事に続いてeval関連の話題になります。 AIエージェントやLLMを使ったサービス開発をされている方
LLMのキモい算術 - ジョイジョイジョイ 🔖 368
LLMは「226-68=」のようなプロンプトを与えると「158」と計算してくれますが、この計算は我々が想像するよりも奇妙な方法で行っていることを紹介します [Nikankin+ICLR 2025]。 まずは前提条件を確認します。思考の連鎖は使わず、「226-68=」のようなプロン
DGX Sparkと「nanochat」でゼロから丸一日学習させてLLMを自作してみた 🔖 38
nanochatとはOpenAI共同設立者、元テスラディレクターであり。バイブコーディング・コンテキストエンジニアリングといった言葉を生み出したAndrej Karpathy氏が公開したソフトウェアです。https://github.com/karpathy/nanochat
統一的プロンプトの終焉:もはやllmモデルに互換性はありません 🔖 249
統一的プロンプトの終焉:もはやllmモデルに互換性はありませんWhy LLM models are no longer interchangeableの意訳です。 開発者やプロダクトビルダーにとって、この数年間はLLMがアプリケーション開発を導いてきました。プロダクトを改善したい
プレイブックに基づく契約書レビューにおけるLLMの性能検証 🔖 2
こんにちは、株式会社LegalOn TechnologiesのAIセクションチームです。LegalOn Technologiesでは、日本の法務分野における自然言語処理(NLP)のための包括的なベンチマークデータセット、LegalRikaiを作成しています。LegalRikaiは
日本語で使いやすい。おすすめのローカルLLM3選 🔖 192
日本語で使いやすい。おすすめのローカルLLM3選2025.10.25 21:008,373 かみやまたくみ ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのような
ここが変だよLLMコーディングエージェント(Codex) 🔖 104
はじめに 最近LLMコーディングエージェント(主にCodex)tipsを書きましたが、やっぱりLLMコーディングエージェントは、頼りにしすぎてはいけない、重要なところは自分で書こうという思いが強まってきています。 どういうとこが変なのかをまとめることで、なぜそう感じるのかを説明し
ここが変だよLLMコーディングエージェント(Codex) 🔖 104
はじめに最近LLMコーディングエージェント(主にCodex)tipsを書きましたが、やっぱりLLMコーディングエージェントは頼りにしすぎてはいけない、重要なところは自分で書こうという思いが強まってきています。どういうとこが変なのかをまとめることで、なぜそう感じるのかを説明した