Anthropicが「Claude Mythos Preview」を一部の組織を対象に提供開始したことを2026年4月7日に発表しました。Claude Mythos Previewは「ソフトウェアの脆弱(ぜいじゃく)性を発見して悪用する」という能力が極めて高く、すでにLinuxやOpenBSDに存在する重大な脆弱性を大量に発見しています。AnthropicはAIの発展に伴うセ...
S3 Files and the changing face of S3April 07, 2026 • 6004 words Almost everyone at some point in their career has dealt with the deeply frustrating process of moving large amounts of data from one place to another, and if you haven’t, you probably just haven’t worked with large enough datasets ye...
🚀 はじめに おぐまです。 Google が 2026年4月2日に Gemma 4 をリリースしました。Apache 2.0 ライセンスで使えるオープンモデルで、ローカルで動かしている人にとってかなり嬉しい内容になっています。「また(新しいモデル)かよ、、」と思う方もいるかもしれませんが、今回は個人開発者・ローカルLLM勢的に注目ポイン...
Netflixとブルガリア・ソフィア大学の研究チームが動画編集フレームワーク「Video Object and Interaction Deletion(VOID)」を発表しました。従来の削除手法は背景の補完や外観の修正には優れていましたが、物体同士の複雑な物理的接触が絡むシーンでは不自然な結果を招くことが多く、VOIDはこうした課題を解決するため...
国産LLMがGPT-4oを超えた。 国立情報学研究所(NII)が、国産大規模言語モデル「LLM-jp-4」をオープンソースライセンスで公開しました。フルスクラッチ学習で構築された国産モデルです。しかも一部ベンチマークではGPT-4oやQwen3-8Bを上回っています。 公開されたのは約86億パラメータの「LLM-jp-4 8Bモデル」と、約320...
AIモデルはパラメーター数が多いほど性能が高くなりやすいですが、パラメーター数が多くなるとメモリ使用量が増加してしまうというトレードオフの関係にあります。AI開発企業のPrismMLが2026年3月31日に発表した「1-bit Bonsai」は80億パラメーターのモデルを1.15GBという少ないメモリ使用量で実行することが可能。さら...
Claude CoworkもOpenClawも使わず、ローカルLLMで自律エージェントを自作した。 理由は2つあります。1つは、クライアント案件のデータを外部APIに投げられない現場がある。。もう1つは、Gemma 4がApache 2.0で出た今、ローカルで同じことがどこまでできるのか、実務者として知っておきたかった。 この記事では、Gemma 4 ...
本日、ステルスモードから脱し、PrismMLを立ち上げます。PrismMLはCaltech発のAIラボで、最も集中した形態の知能を構築することに焦点を当てています。 PrismMLでは、AIの次の大きな飛躍は、単なるパラメータ数の増大ではなく、知能密度の桁違いの改善によって駆動されると信じています。 私たちの最初の証明点は、1-bit...
今週もプログラミング雑記からGo言語の話題を中心に気になった話題を取り上げていきます。 Go言語 Go 1.26で改善された型チェッカーの型構築とサイクル検出について説明しています。Goの型チェッカーは、AST(抽象構文木)をトレースして各型の内部表現を構築します。単純な型では深さ優先で完成しますが、再帰型では不...
「Apache」に関連する商品は見つかりませんでした