はてぶ・Qiita・Zennのトレンド記事を紹介
LLM(大規模言語モデル)は、大量のテキストデータを学習したAIモデルです。ChatGPTなどの自然言語処理AIの基盤となっています。
【爆安15万円】 RaspberryPi5でNVIDIAのGPUを使ってみた【LLMもFluxも】|shi3z 🔖 93
GPUを大量に買ったりしていると、時折GPUが余ることがある。 GPU単独で回すのも大事だが、それ以上にGPUが余る。余ったGPUのためにもう一台マシンを組もうとすると、中古品を組み合わせても筐体とマザボ、CPU、メモリやらで最低でも10万円コースになる。そこにGPUを組み合わせ
King - Man + Woman = Queen はLLMでも成り立つのか? 🔖 1
ウォンテッドリーでデータサイエンティストをしている右手です。自然言語処理で有名な例に、King - Man + W...
ローカル LLM は 審判を務められるか? 【 gemma3 vs gpt-4o-mini 】 🔖 1
LLM の出力、どうやってテストしていますか?LLM をシステムに組み込んだとき、多くの開発者が直面する問題があります。「この回答、合ってるかどうか、どうやって自動で判定(テスト)すればいいんだろう?」従来のシステムテストでは、入力に対して期待する出力が 1 つに定まります
VRAM96GB(Unified memory 128GB)でどのLLMが使えるか - きしだのHatena 🔖 62
VRAM96GBが使える環境が増えてきていますね。そんな中、どのLLMを使うのがいいか考えてみます。 候補としては、gpt-oss-120b、GLM-4.6V、Qwen3-Coder-Nextがあります。 で、まあ、安定性のgpt-oss、汎用性のGLM、複雑なコードはQwen3
ソートはコンピュータサイエンスにおける古典的なタスクですが、これが最先端の LLM と結びつき、新たな研究の潮流が生まれています。 ソートは比較関数さえ定義すれば実行することができます。従来の比較関数は身長・金額・距離のように測定可能な数値の比較を前提としていましたが、この比較関
意外とないので自分のメモとしている生成AIリンク集を公開Chatサービス、プロンプト集、リーダーボード、情報収集のコンテンツなどエージェント、バイブコーディング、画像、動画、音声には私が疎いのでそこは手薄(今後頑張ります)初心者向けサイト...
Debian、LLMスクレイピング攻撃でCIデータの公開閲覧を制限 | gihyo.jp 🔖 16
生成AIの普及と進化はサイバー攻撃のスタイルにも急激な変化をもたらしている。そのひとつがAI/LLMによるWebサイトのスクレイピングだ。従来からボットやクローラーを使ってWebサイトから自動的に情報を収集する行為はひろく行われていたが、AI/LLMによるスクレイピングは「HTM
8GBメモリでOK!Raspberry Pi 5で使える日本語対応ローカルLLM一覧 - uepon日々の備忘録 🔖 57
以前のエントリなどでも触れていましたが、Raspberry Pi 5(8GB RAM)でリアルタイム対話可能な日本語LLMは実現可能となりつつあります。それも、特別なハードウェアを使用することなしにです。 これは、1B〜3Bパラメータのモデルでもかなり優秀になってきているからです
ウォンテッドリーのLLM アプリケーション自動テスト戦略 🔖 26
こんにちは、ウォンテッドリーでソフトウェアエンジニアをしている市古 (@sora_ichigo_x) です。現在は...
マルチモーダルLLMを活用したZOZOTOWN検索の関連性評価手法 🔖 21
こんにちは。検索基盤部の橘です。検索基盤部では、ZOZOTOWN検索の品質向上を目指し、検索結果の改善に取り組んでいます。 ZOZOTOWN検索の並び順の精度改善の取り組みについては以下の記事をご参照ください。 techblog.zozo.com 検索基盤部では新しい改善や機能を
AIのセキュリティが気になるならローカルLLM!LM Studioで環境構築する方法 🔖 1
インターネットのみなさんこんにちは。みなさんは、自力で文章を書いていますか? 僕はもう無理です。企業からのメールの返信、上司からのSlackメッセージ、活動報告書。何か文章を書く前に、ChatGPTに投げています。ここだ […]
はじめに こんにちは! ハッカソンでGPUがないノートパソコンで、ローカルLLMを動かすことに苦戦したアヤノです。 たまにGPUがない環境でローカルLLMを使わざるを得なくなるため、その方法をまとめました。本来ならローカルでOllamaを動かす方が良いのですが、今回はどの環境でも
Claude CodeでローカルLLMが使えるらしいので試してみた【Ollama連携】 🔖 55
Claude CodeでローカルLLMが使えるらしいので試してみた【Ollama連携】 目的 普段:Claude Code を Subscription/ログインで クラウドClaude として利用 必要な時だけ:Ollama の ローカルLLM に向けて Claude Code
モデル学習なしでもここまで読める!? ローカルLLMで挑む書類読取の現在地 🔖 1
はじめに 最近、社内に検証用のハイスペックGPUマシンが導入されました。 このマシンを実際に触ってみると、想像以上に大きなモデルをローカル環境で動作させることができ、 「これまで実現が難しかったことでも実現していけそうだ」という手応えがありました。 これまでAI関連のタスクとして
プロンプトで祈るのはもうやめる。Outlines/Guidance で LLM の出力を 100% 制御する技術 🔖 1
プロンプトで祈るのはもうやめるOutlines / Guidance で LLM の出力を 100% 制御する技術はじめに:開発現場における「お祈り」の限界LLMをシステムに組み込む際、私たちはいつまでプロンプトで「お祈り」を続けるのでしょうか。「以下のJ...
SSHがキーストロークごとに100パケットを送信する問題をLLMとともに解決した話 🔖 68
SSHはターミナルエミュレーターを通じてリモートサーバーに安全に接続するためのプロトコルであり、ブラウザなどを用いた通信に比べると圧倒的にシンプルな送受信を行っているのではないかと考えてしまいます。しかしあるプログラマーがSSHを使用している際にキーストロークごとに100パケット
Claude CodeでローカルLLMが使えるらしいので試してみた【Ollama連携】 🔖 55
Claude CodeでローカルLLMが使えるらしいので試してみた【Ollama連携】目的普段:Claude Code を Subscription/ログインで クラウドClaude として利用必要な時だけ:Ollama の ローカルLLM に向けて Claude Co
2026年のローカルLLM事情を整理してみた | DevelopersIO 🔖 357
はじめに こんにちは、クラスメソッド製造ビジネステクノロジー部の森茂です。 2025 年から 2026 年にかけて、ローカル LLM 界隈の動きが激しすぎて追いつけなくなってきました。DeepSeek-R1 のインパクト、Ollama の機能拡充、Qwen2.5 の日本語性能向上
なぜ、精度が上がらないのか。なぜ、こんなに遅いのか。なぜ、こんなにお金がかかるのか。それは、LLMアプリケーションの技術的負債「ロジックの液状化」のせいかもしれません。 ロジックの液状化とは何か?本来、確定的なプログラムコードとして構築されるべきロジックが、プロンプト
続・戦略と実行を爆速でつなぐデータ活用の現在地: LLM 編 - inSmartBank 🔖 28
こんにちは。スマートバンク 新春エンジニア駅伝 2026 第 16 区走者の kaoru です。最近はワンバンクのポイントの基盤を作ったり、エンジニアリングマネージャーをやったりしています。 この記事では 2025 年 3 月の記事「戦略と実行を爆速でつなぐデータ活用の現在地」の
続・戦略と実行を爆速でつなぐデータ活用の現在地: LLM 編 🔖 28
こんにちは。スマートバンク 新春エンジニア駅伝 2026 第 16 区走者の kaoru です。最近はワンバンクのポイントの基盤を作ったり、エンジニアリングマネージャーをやったりしています。 この記事では 2025 年 3 月の記事「戦略と実行を爆速でつなぐデータ活用の現在地」の
LLMの能力の「穴」 - ジョイジョイジョイ 🔖 164
本稿では Even GPT-5.2 Can't Count to Five: The Case for Zero-Error Horizons in Trustworthy LLMs をもとに、最先端の LLM が未だにごく簡単な問題ですらミスすることを議論します。 具体例として
「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説 🔖 100
「LM Studio」ではじめるローカルLLM。“ガチ無料AI”を徹底解説2026.01.26 16:35 かみやまたくみ 2025年9月7日の記事を編集して再掲載しています。 自分のパソコン上で無料で動かせるAI「ローカルLLM」が最近盛り上がりを見せています。 高性能化が進ん
海外で注目されている OSS「Clawdbot」入門 - LocalLLM前提のAIアシスタント紹介 - 🔖 4
はじめにClawdbot(clawd.bot)は、海外のOSSコミュニティで急速に注目を集めているSelf-hosted / LocalLLM前提 のAIアシスタントです。2025年12月に公開されたばかりですが、2026年1月時点でGitHubスター数は5,000...
「精度何%ならリリースOK?」運用開始前に定める、納得感のあるLLM評価基準の作り方 🔖 1
こんにちは。データアナリティクスグループの丸山です。 現在、私たちのチームでは求職者の方々により納得感のある仕事探しを体験していただくため、レコメンドエンジンに「LLMを用いた推薦理由の説明」を付加するプロジェクトに取り組んでいます。 このような推薦理由の説明はTikTokなど転
日本語特化拡散言語モデル「ELYZA-LLM-Diffusion」の公開 🔖 66
はじめに こんにちは、ELYZA Lab チームの Trisitichoke Tasavat です。本記事では、日本語性能に特化した拡散言語モデル (Diffusion LLM) ELYZA-Diffusion-Base-1.0-Dream-7B および ELYZA-Diffus
日本語特化拡散言語モデル「ELYZA-LLM-Diffusion」の公開 🔖 66
はじめにこんにちは、ELYZA Lab チームの Trisitichoke Tasavat です。本記事では、日本語性能に特化した拡散言語モデル (Diffusion LLM) ELYZA-Diffusion-Base-1.0-Dream-7B および ELYZA-Diffus
【LLM文字起こし性能比較】低解像度のAI泣かせ表データを読ませてみた結果(GPT-5.2 / Gemini 3 / Claude 4.5 Opus) 🔖 1
💡この記事で分かることGPT-5.2、Gemini 3、Claude 4.5 Opusの画像文字起こし性能の違い低解像度・特殊文字満載の表データに対する各モデルの対応力筆者の検証環境における最適な文字起こしモデルの選定結果プロンプトの質が出力に与える影響の実...
1800~1875年のデータのみでトレーニングされた大規模言語モデル「TimeCapsule LLM」 🔖 157
大規模言語モデルのトレーニングには大規模なデータセットが必要ですが、データセットに偏りがあると出力結果や動作にもバイアスが生じます。これを逆手に取り、あえて1800~1875年という限られた年代のデータセットのみを用いてトレーニングされた大規模言語モデルが「TimeCapsule
LLMによる「非定型見積書の明細抽出タスク」の精度を約80%→約95%に改善した話 - LayerX エンジニアブログ 🔖 52
こんにちは。Ai Workforce事業部 FDEグループエンジニアのkoseiと申します。 以下本文は、以前インターンとして一緒にプロジェクトを進めてくれた @kimu さんが在籍中に執筆したものです(冒頭のみkoseiが追記しています)。 本ブログで紹介したアルゴリズムにより
LLMによる「非定型見積書の明細抽出タスク」の精度を約80%→約95%に改善した話 🔖 52
こんにちは。Ai Workforce事業部 FDEグループエンジニアのkoseiと申します。以下本文は、以前インターンとして一緒にプロジェクトを進めてくれた @kimu さんが在籍中に執筆したものです(冒頭のみkoseiが追記しています)。本ブログで紹介したアルゴリズムにより精度
数GBのLLMモデルを、LambdaでLinuxシステムコールを駆使して本番水準で動かす - Nealle Developer's Blog 🔖 90
はじめに お疲れ様です。2357giです。先日のre:Inventで参加したセッション「Build high-performance inference APIs with Lambda SnapStart」にて、「数GB級のLocal LLMをサーバレスで、本番環境の要求水準で
LLMアプリケーションのセキュリティ実践:脆弱性の発見からガードレール実装まで 🔖 3
はじめに株式会社Acompany プラットフォーム部エンジニアの平岡です。生成AIが急速に普及する中、社内チャットボットやカスタマーサポートなど、LLMを組み込んだアプリケーションが増えてきました。ただ、これらのアプリケーションには従来のWebアプリとは異なる脆弱性が潜んでい
数GBのLLMモデルを、LambdaでLinuxシステムコールを駆使して本番水準で動かす 🔖 90
はじめに お疲れ様です。2357giです。先日のre:Inventで参加したセッション「Build high-performance inference APIs with Lambda SnapStart」にて、「数GB級のLocal LLMをサーバレスで、本番環境の要求水準で
Claude Codeを組織で使い倒す - Azure × LiteLLMで構築する社内LLM基盤 🔖 1
はじめにこんにちは、株式会社エムニでエンジニア・PMとして働いている宮木です。最近 Claude Code GitHub Actions でレビュー自動化やドキュメント自動更新のワークフローを作成して、プロジェクト内で運用をし始めていたのですが、私個人のサブスクリプションで組
ArrowIdeative-13b-instruct-ZERO-llm-jpについて|Holy_fox 🔖 12
概要ArrowIdeative-13b-NeoBase-ZERO-llm-jpは、日本語のベースモデルに対して、完全にGRPO(Group Relative Policy Optimization)のみを用いた強化学習を施して作られた純国産LLMです。また、これはおそらく世界初の
LLMは「同じ質問を2回」入力すると精度が上がる──Google研究者ら、プロンプト反復の効果を短報で報告 | Ledge.ai 🔖 303
Top > 学術&研究 > LLMは「同じ質問を2回」入力すると精度が上がる──Google研究者ら、プロンプト反復の効果を短報で報告
キャラクターの芯を掘り下げるためのLLM向けプロンプト - ぽなのおにくせいかつ🍖 🔖 107
[最終更新 2026/1/3 初版] ひょんなことから、キャラクターの芯を掘り下げるためのプロンプトが出来上がったので置いておきますね。 このプロンプトの使い方 すでに基礎的なプロフィールが決まっているキャラクターの内面を掘り下げ、あなたの一次創作(うちのこ)に深みを持たせたり、
[入門] Crawl4AI:LLM・RAG向けWebスクレイピングの始め方 🔖 18
Crawl4AIは、LLM(大規模言語モデル)やRAGシステムに特化したオープンソースのWebスクレイピングフレームワークです。従来のスクレイピングツールと異なり、AIが扱いやすいMarkdown形式での出力や、LLMを活用した構造化データ抽出に対応しています。本記事では、Cra
LLMのための強化学習手法 2025 -PPO・DPO・GRPO・DAPO一気に理解する-|olachinkei 🔖 61
AI Solution EngineerをやっているKeisuke Kamata (X: olachinkei) です。LLMのための強化学習手法を一気に理解する記事を書きました!構成を書きながら「万里の長城よりなげーよ」と思ったのですが、一気に理解するのも悪くないと考え、詰め込
LLMに書かせるときの技術書執筆ガイドラインの試行錯誤 - 氾濫原 🔖 37
本を書く(LLMを使って)で参照させてるやつの現状を共有しておく…… 最初に読ませていても、長文書かせると必ず「クセ」が戻ってしまうので、章ないし節ごとに「@technical-writing-rules.md 違反 」とかで結局明示的にチェックさせる必要がある。 「重要なキーワ
「あのPdMは怖い」と言われたら読む記事。正論でチームを壊さない、D・カーネギー流「人を動かす」リーダーシップ - PM x LLM STUDIO 🔖 45
なぜ、一生懸命なPdMが「怖い」と言われてしまうのか? 正論ハラスメント PdMという職種は、役割上”指摘する側”に回ることが多くなります。 他のPdMに対して思考や行動の基準を伝える 仕様の考慮漏れを指摘する スケジュールの遅延に対してリカバリーを求める 実装された機能が要件と
はじめにこれまで、【生成 AI 時代の LLMOps】のシリーズでプロンプト管理編、モデルマイグレーション編を扱ってきました。そして前回いよいよ評価ことはじめと題し、混同されがちな 評価 の全体像を整理する記事を投稿しました。評価とはモデル評価、エージェント評価、あるいはアプ