料理のすべてを記録するスマートグラス:Googleの「自動レシピ生成」特許 (US12380713B2)

IT特許

「この前の煮物、すごく上手くできたのに、もう同じ味が出せない」
「妻が感動したあのパスタの味、次はどのレシピだったっけ?」
料理とは、材料・手順・タイミング・気分さえも組み合わさったアドリブです。うまくいった日ほど、それをどう再現するかが難しい。頭ではわかっているつもりでも、「いつ、どのぐらい、どうやって」の記憶はあいまいなものです。

2025年8月に公開されたGoogleの特許(US12380713B2)では、まさにその悩みに正面から応えるような、自動でレシピを生成するシステムと方法が開示されています。
このブログでは、その技術の全貌を、特許図面とともにわかりやすく解説します。

キッチンにAIがいる世界:ただ料理するだけで、レシピができる

この技術の中核となるのは、ユーザーが料理している様子をウェアラブルデバイスが自動で認識・記録するという仕組みです。
では、実際にどんな環境で、どのように動作するのでしょうか?
その全体像を示したのが Fig. 1A です。この図では、キッチンに立つユーザーの周囲に、複数のスマートデバイスが配置されています。
具体的には次の4つ:

  • スマートグラス(100A)
  • イヤホン型デバイス(100B)
  • スマートウォッチ(100C)
  • スマートフォン(100D)

これらのデバイスが連携し、ユーザーが気づかぬうちにレシピを作り上げていくのです。

スマートグラスが「目」と「脳」になる

このシステムの“司令塔”ともいえるのが、ユーザーが着用するスマートグラス(Fig.1B, 1C)です。
スマートグラスには以下のような機能が搭載されています:

  • カメラ(116):目の前の材料や動作を記録
  • ディスプレイ(104):AR表示でレシピを視界に重ねる
  • 音声入出力(106, 107):ハンズフリー操作
  • 視線追跡装置(118):ユーザーが何に注目しているかを把握。

たとえば、ユーザーがニンジンに視線を向けてそれを切り始めると、カメラが映像を捉え、視線情報と連動して「刻んでいる」という行動をAIが認識します。
この動作を解析するのが、内蔵の認識エンジン(MLモデル)です。

手首の動きも補足するスマートウォッチ

料理中の手の動きは複雑です。
そこで登場するのが、手首に装着したスマートウォッチ(100C)です。加速度センサーやジャイロスコープが内蔵されており、かき混ぜる・こねる・振るうといった微細な動作を検出可能です。
さらに、ウォッチには特別なマーカー(125)が取り付けられており、スマートグラスからその位置や動きを追跡することで、ユーザーの腕の正確な位置と角度まで記録できるのです。

画像・音声・行動の統合処理

グラスやウォッチだけでは処理しきれない画像・音声・行動の認識結果の統合処理を行うのが、スマートフォン(Fig.1E)です。
大容量の演算処理が必要なときには、スマホがクラウドと連携しながら処理を担い、最終的なレシピを統合・保存する役割を果たします。

レシピ生成

それでは、具体的にレシピがどのように生成されていくのかを見てみましょう。
Fig. 3Aに描かれているのは、レシピ生成の一連のプロセスです。

料理が始まると、まずグラスのカメラが料理環境を撮影します(ステップ310)。

次に、AIが画像を分析し、Fig. 4Aのように材料を特定します。たとえば、トマト(411)、タマネギ(412)、スパイス類(416)などが認識され、それぞれの分量まで推定されます(ステップ355)。
Fig.4Bでは、同様に調理器具(421〜425)を認識します。
これにより、「包丁を使ってタマネギを刻んだ」という文脈が形成されます。

続いてAIは、Fig. 4C〜4Hのような手の動きを認識します。
ここでは「刻む」「混ぜる」「つかむ」「振りかける」といった動作が明確に分類され、調理ステップの構成に使われます(ステップ370)。

全行動に対して、タイムスタンプが記録されるのもポイントです。
「トマトを3分間炒めた」といった精密な時間情報が、調理の再現性を高めるのです。

レシピの命名

料理が終わると、録画とセンサーデータをもとに、AIはレシピの名前を自動で命名します(Fig. 3C, ステップ391)。たとえば「スパイシー・ベジタブル・サラダ」といった表現が自然言語処理で生成されます。

さらに、Fig. 3Cのステップ392〜394では、映像にキャプション(「刻む」「混ぜる」「炒める」など)を自動挿入し、画像付きレシピとして保存されます。
こうして完成したレシピは、スマホやスマートグラスで閲覧可能になり、再現や共有も簡単です。

調理の自動認識

レシピ生成モードがいつ始まるのかは、複数の条件から判断されます。
たとえば Fig. 4I では、GPSセンサーがユーザーがキッチンにいることを認識し、レシピモードが自動的に起動します。
あるいは Fig.4J に示されるように、視界内に「トースター」「冷蔵庫」「まな板」といったキッチン器具や調理風景が映ることで、「調理中である」と判断されます。
また、「おなかすいた」という生体反応をGSRセンサー(ガルバニック皮膚反応センサー)が検出し、空腹状態がトリガーになるというユニークな例も紹介されています。

まとめ

この特許が示すのは、「そのとき、あなたがどんな気持ちで、どんな工夫をして料理していたか」を、できるだけ忠実に記録する技術です。
また、ただレシピを見るだけでなく、
「ここでひとつまみだけスパイスを足したんだったな」
「このときちょっと火を弱めたんだよな」
といった微細な判断のすべてが、動画や注釈として残されている「調理体験」の再生装置なのです。

そしてこの技術は、料理だけでなく、工芸やDIY、介護や保育など「手の動き」が重要なあらゆる分野へと応用される可能性があります。

最後までお読みいただきありがとうございました。

特許情報

特許番号:US 12380713 B2
タイトル:System and Method for Smart Recipe Generation
発明者:Omar Estrada Diaz
出願人:Google LLC
公開日:2025/8/5
出願日:2022/9/14
特許の詳細については、US12380713B2を参照してください。

※企業の特許は、製品になるものも、ならないものも、どちらも出願されます。今回紹介した特許が製品になるかどうか現時点では不明です。ご注意ください。

タイトルとURLをコピーしました