Hugging Faceは2026年4月23日、Transformers.jsをChrome拡張機能(Manifest V3)に組み込むための公式実装ガイドを公開した。
このガイドが開発者コミュニティで注目される最大の理由は、MV3のサービスワーカー制約という実装上の難所に対して、公式が体系的な解答を示した点にある。MV3ではサービスワーカーが一時停止・再起動されるため、モデルの実行時状態を保持し続けることができない。今回示された設計では、推論処理をすべてbackground.ts(バックグラウンドサービスワーカー)に集約し、再初期化可能な状態設計を採用することでこの制約を回避している。
使用モデルはテキスト生成にGemma 4 E2B(q4f16)、埋め込み生成にall-MiniLM-L6-v2(fp32)の2種類。モデルキャッシュは拡張機能オリジン(chrome-extension://)に保存されるため、複数タブ・セッションをまたいで共有され、メモリの重複ロードを防ぐ。ランタイム間の通信はsrc/shared/types.tsで型定義されたenum(BackgroundTasks・BackgroundMessages・ContentTasks)で管理されており、型安全な通信設計が実現されている。
必要なパーミッションはsidePanel・storage・tabs・scripting・host_permissions(http(s)://*/*)に限定されており、最小権限の原則に沿った設計となっている。
日本の開発・事業現場への影響として特に重要なのは、プライバシー設計の側面だ。推論がすべてローカルで完結しユーザーデータがサーバーに送信されない構造は、個人情報保護法やGDPRにおける第三者提供リスクを構造的に排除する。医療・法務・行政など機密データを扱う現場でのブラウザAI導入において、規制対応の根拠として活用できる具体的な実装例となる。
クラウドAPI型との比較では、APIコスト・オフライン動作・レイテンシの面でローカル推論が優位な場面がある一方、モデルサイズによる初回ロード時間やデバイス性能への依存という制約も存在する。今回の公式ガイドはその選択判断を行うための参照実装として機能する。