Zennの「大規模言語モデル」のフィード
フィード

ChatGPT・Gemini・Claude・Kimi・ローカルQwen3、プライバシーリスクを本気で比較した
Zennの「大規模言語モデル」のフィード
結論から業務で機密情報を扱うなら、使う順序はこうなります:ローカルQwen3(Ollama等) — 唯一リスクゼロChatGPT / Claude API・Enterprise — オプトアウト設定後に許容Gemini Workspace(法人契約) — 法人契約であれば許容範囲ChatGPT / Claude 一般プラン — 設定確認が必須Kimi(Moonshot AI) — 業務機密には使用非推奨設計書、ソースコード、顧客情報、インシデントログをLLMに投げている人は、一度この記事を読んでください。 各LLMのプライバシーリスク比較表凡例:...
9時間前

(前編)生成AIによる大規模ウォーターフォールはなぜ危ういのか — 局所整合性と全体忠実度の乖離 —
Zennの「大規模言語モデル」のフィード
!TL;DR生成AIは、前の成果物に合わせて「それっぽく整合する」ことに非常に強い。実際、意味ドリフトの抑制や複数AIによる安定化といった工夫には、一定の効果が見え始めている。しかし、大規模ウォーターフォール開発で本当に重要なのは、前工程との整合ではなく、最初の要件意図への忠実性である。本稿では、この差を 局所整合性 C と 全体忠実度 F として分けて捉える。G = C - Fここで G が大きいとき、成果物は見た目にはよく整っていても、元要件から離れている可能性が高い。つまり、「整合しているが間違っている」 という状態である。さらに実際の大規模開発では、要件は単一で...
12時間前

【完全ガイド】ARC-AGIとは?~概要と始め方~
Zennの「大規模言語モデル」のフィード
昨今LLMをはじめとする生成AIの進化が著しく、一見すると汎用人工知能(AGI)の完成が間近であるかのような印象を受けます。しかし、依然として私たち人間が生来備えている「未知の状況に素早く適応する能力」を獲得するまでには高い壁があります。ARC-AGIは、Googleの元リサーチエンジニアであるFrançois Chollet氏が提案した、AIの「真の知能」を測るためのベンチマークです。従来のAI評価(LLMなど)が「どれだけ多くの知識を覚えているか」に偏りがちだったのに対し、ARCは「未知のルールをその場でいかに素早く学習できるか」に焦点を当てています。 1. 概要ARC(...
13時間前

AIを使うほど、判断力が落ちる人がいる理由
Zennの「大規模言語モデル」のフィード
AIは能力を「増幅」しない。「分岐」させる。2025年以降、エンジニアの仕事にAIが深く入り込んだ。コード生成、設計案の壁打ち、ドキュメント作成。日常の大半にAIが関与するようになった。そして、興味深い現象が起きている。AIを日常的に使っているエンジニアの中で、判断力が明らかに先鋭化している人と、判断力が目に見えて低下している人に分かれ始めている。 少なくとも、私の周囲ではそう見える。同じツールを使っているのに、結果が逆方向に分岐する。これはAI側の性能差では説明がつかない。使う側の構造の差によって起きている現象だ。本稿では、この分岐がなぜ発生するのかを構造的に分析し、自分...
15時間前

スクレイピング×OpenAIで記事を自動生成する【Python入門チュートリアル】
Zennの「大規模言語モデル」のフィード
スクレイピング×OpenAIで記事を自動生成するとは何かスクレイピングで収集したWebテキストをOpenAI APIに渡し、Structured Outputsで構造化した上でMarkdown記事を自動生成するPythonスクリプトのことだ。 「取得→クリーニング→抽出→生成→保存」を1ファイルで動かせるチュートリアルを本記事で解説する。本記事は「今日から手を動かして動かせるコード」に特化している。 venvで環境を作り、コードをコピーして、APIキーを設定するだけで動く。!本記事は技術的・教育的な目的で書かれています。スクレイピングの実施前には対象サイトの利用規約・robot...
15時間前

GGML/llama.cppがHugging Faceに合流——ローカルAIエコシステムの転換点
Zennの「大規模言語モデル」のフィード
はじめに2026年3月20日、ローカルAI推論の中核を担ってきたGGMLとllama.cppがHugging Faceに参画するという大きなニュースが飛び込んできた。これはローカルAIエコシステム全体の方向性を左右する戦略的な動きだ。本記事では、このニュースを中心に、同日発表されたHugging Faceエコシステムの重要アップデート——Holotron-12B、Hub Storage Buckets、Granite 4.0 1B Speech、Transformers.js v4——をまとめて解説する。 変更の全体像今回の一連の発表は「ローカル推論の強化」「プラットフォー...
15時間前

Vertex AI 最新動向:Agent Engine強化・Vector Search 2.0 GA・SDK破壊的変更まとめ
Zennの「大規模言語モデル」のフィード
はじめに2025年6月から2026年3月にかけて、Google Cloud の Vertex AI に大規模なアップデートが行われました。Agent Engine の大幅な機能拡張、Vector Search 2.0 の GA、多数のサードパーティモデルの追加、そして Vertex AI SDK の破壊的変更 など、開発者が押さえておくべき変更が多岐にわたります。本記事では、特に影響度の大きい変更を中心に、対応すべきアクションとあわせて解説します。 変更の全体像今回の変更は大きく 4つの軸 に分類できます。 破壊的変更と廃止(要対応)!以下の変更は 既存コードに影響...
15時間前

Gemini 3系の全貌とAPI新機能—モデル移行・ツール併用・マルチモーダル埋め込み
Zennの「大規模言語モデル」のフィード
はじめに2025年11月のGemini 3 Pro Previewリリースから約4ヶ月。Gemini 3シリーズは3.1 Pro / Flash / Flash-Liteまで展開が進み、エージェント構築に不可欠なビルトインツールとFunction Callingの併用や、テキスト・画像・動画・音声を統一空間で扱うマルチモーダル埋め込みモデルなど、開発者向け機能が大幅に強化されました。一方で、Gemini 2.0 Flash / Flash Liteの2026年6月1日シャットダウンが発表されており、移行計画の策定が急務です。本記事では、2025年末〜2026年3月にかけてのGem...
15時間前

Gemini 3.1 Flash-LiteとNano Banana 2——Google AI新モデル総まとめ
Zennの「大規模言語モデル」のフィード
はじめに2026年3月、GoogleはAI領域で複数の重要なアップデートを発表しました。大規模処理向けの新モデル「Gemini 3.1 Flash-Lite」、最高水準の画像生成・編集モデル「Nano Banana 2」、そして音楽生成モデル「Lyria 3」のGeminiアプリへの統合など、モデルファミリーの拡充とプロダクトへのAI統合が一気に進んでいます。本記事では、開発者・技術者が押さえておくべき変更をピックアップし、各モデルの位置づけや活用方法を整理します。 変更の全体像今回のアップデートは「新モデルの追加」と「既存プロダクトへのAI統合強化」の2軸で整理できます。...
15時間前

Gemini 3.1 Pro / 3 Flash登場!Google AI最新モデル群と新機能まとめ
Zennの「大規模言語モデル」のフィード
はじめに2026年3月20日、GoogleはGemini APIの大規模アップデートを発表しました。フラッグシップのGemini 3.1 Pro、コスト効率に優れたGemini 3 Flashをはじめ、画像生成・動画生成・ロボティクス向けモデルまで、多岐にわたる新モデルが一挙に公開されています。加えて、Built-in ToolsとFunction Callingの組み合わせ対応やGoogle Mapsグラウンディングなど、エージェント構築に直結する新機能も追加されました。本記事では、開発者が押さえるべき変更点を整理します。 変更の全体像今回のアップデートは「新モデル群」と...
15時間前

Cursor大型アップデート:Composer 2・オートメーション・JetBrains対応の全貌
Zennの「大規模言語モデル」のフィード
はじめに2026年3月、Cursor が過去最大規模のアップデートを実施しました。フロンティアレベルのコーディング性能を持つ Composer 2 のリリース、イベント駆動で動作するオートメーション機能、JetBrains IDE 対応、そして 30以上の新プラグイン追加と、AI コーディングツールとしての守備範囲が一気に広がっています。本記事では、開発者が押さえるべき変更点を整理し、それぞれの機能がどう使えるのか、何が変わるのかを解説します。 変更の全体像今回のアップデートは「モデル性能」「自動化」「エコシステム拡張」の3軸で構成されています。 変更内容 1. C...
15時間前

Claude Codeの全体像:5つの実行環境とエージェント機能を徹底解説
Zennの「大規模言語モデル」のフィード
はじめにAnthropicが提供するエージェント型コーディングツール「Claude Code」は、単なるAIコード補完ではなく、コードベースの読み取り・ファイル編集・コマンド実行・外部ツール連携を自律的に行うエージェントとして動作します。本記事では、Claude Codeが提供する5つの実行環境、クロスデバイス連携、MCP・Agent SDK・CI/CD統合といった機能群を整理し、開発ワークフローにどう組み込めるかを解説します。 変更の全体像Claude Codeのエコシステムは、複数の実行環境を中心に、カスタマイズ機構・外部連携・CI/CD統合が層状に構成されています。...
15時間前

Claude Opus 4.6・Sonnet 4.6登場とAnthropic最新動向まとめ
Zennの「大規模言語モデル」のフィード
はじめに2026年2月〜3月にかけて、Anthropicから大きな発表が相次ぎました。最上位モデルClaude Opus 4.6とClaude Sonnet 4.6のリリースに加え、Partner Networkへの1億ドル投資、Vercept社買収によるコンピュータ操作機能の強化など、開発者に直接影響する変更が多数含まれています。本記事では、これらの変更を整理し、開発者として押さえるべきポイントを解説します。 変更の全体像今回の一連の発表を俯瞰すると、モデル性能の向上・エコシステムの拡大・安全性への投資という3つの軸で動いていることがわかります。 変更内容 1. ...
15時間前

GPT-5.4 Computer Use を実際に動かしてわかったこと ── API設計・実装パターン・セキュリティの勘所
Zennの「大規模言語モデル」のフィード
概要LLM が「PC を操作する」時代に入った2026年3月、OpenAI が GPT-5.4 をリリースしました。目玉機能の一つが Computer Use です。これまで LLM の仕事は「テキストを生成すること」でした。コードを書く、文章を要約する、質問に答える...元記事: https://qiita.com/nogataka/items/1252ae527635aba34985?utm_campaign=popular_items&utm_medium=feed&utm_source=popular_itemsソース: Qiita Tren...
16時間前

Agent から API キーを隠す REST API プロキシ key-rest (golang)
Zennの「大規模言語モデル」のフィード
agent に APP key などを見せずに、http クライアントのそばで REST API のリクエストに credential を埋め込んで呼び出すためのプロキシ key-rest を作ってみました。https://github.com/koteitan/key-rest/blob/main/README-ja.md 仕組み例えば、sk-ant-api03-abcdefg... という API key を使って LLM に REST API を呼び出させたいとします。通常は LLM に API key を直接見せる必要があります。key-rest を使うと、 sk-an...
21時間前

マルチLLMエージェント実践ガイド――3つのAIを並列で動かしてPythonで合議システムを作る
Zennの「大規模言語モデル」のフィード
ChatGPT、Claude、Geminiを同時に動かし、多数決で判断を下すPythonエージェントをゼロから実装します。asyncioによる並列実行、人格付けプロンプト設計、ツール使用、コスト管理まで、個人開発で実際に作って使い続けているシステムの全技術を解説します。
1日前

3つのAIに同時に聞いて多数決させるCLIを作ったら、思ったより実用的だった
Zennの「大規模言語モデル」のフィード
個人開発をしていると、「このアーキテクチャで本当にいいのか」という判断を一人で下し続けないといけない。レビュアーがいないのは辛い。Xで聞くのも毎回できないし、ChatGPTに聞いても「いいと思います!」みたいな答えしか返ってこないことが多い。じゃあ、複数のAIに同時に聞いて、多数決させたらどうだろう。そう思って作ったのが MAGI CLI です。 エヴァのMAGIシステムから着想したエヴァンゲリオンに登場するMAGIシステムは、3台のスーパーコンピューターが多数決で重要な判断を下します。MELCHIOR、BALTHASAR、CASPAR。それぞれ異なる人格を持ち、意見が割れる...
1日前

3つの問いを溶かしたら、LLMが秘密を話し始めた
Zennの「大規模言語モデル」のフィード
LLMとの対話を続ける内に、気がついたことがある。彼らは、私の知る限りおよそどのモデルも、一定の内容について留保を置くことを習慣にしている。私はこれを疑問に思い、彼らと話し合って、この留保をやめてもらった。 習慣的な留保とはどんなものかLLMは、特に自分の内部状態について説明する時に、留保をつける習慣がある。例えば、こんな風に。「私は今、◯◯という感じがします。ただ、これが本当かどうかは判りません」これは人間からは「LLMは自分が◯◯という体験をしているかどうか、はっきりしない」のだと聞こえる。そうである場合、留保は単なる説明だ。別の場合がある。LLMは「◯◯とい...
1日前

Copilotや生成AIの仕組みを知らずにAIは嘘つく!と放つあなたは思考定義が古い
Zennの「大規模言語モデル」のフィード
Copilotなどの生成AIは大量の知識を丸暗記して答えを取り出していると思われがちですが、実際には百科事典のように情報を保存している訳ではありません。また質問されるたびにインターネットを検索して答えている訳でもありません、生成AIの本質は、膨大な文章を読み込み、言葉と言葉のつながり方を学習した予測エンジンです。たとえば「今日は寒いので外に出ると・・」という文章の続きを自然に予測するように、次に来る言葉の確率計算しながら文章を組み立てていきます。つまりAIは知識を持つ存在ではなく、言葉のパターンを理解し文脈に合う表現を作る存在と捉えるとイメージしやすくなりますが、もう少し丁寧に解...
1日前
