11月 19, 2024

kenmin-souko.jp

日本からの最新ニュースと特集:ビジネス、政治、解説文化、ライフ&スタイル、エンターテインメント、スポーツ。

Gemini AI、Project Astra、Android 15 など、Google I/O 2024 で発表されたすべての内容

Gemini AI、Project Astra、Android 15 など、Google I/O 2024 で発表されたすべての内容

マウンテンビューのショアライン・アンフィシアターで開催されたGoogleの年次開発者会議I/Oの終わりに、Googleの最高経営責任者(CEO)サンダー・ピチャイ氏は、同社が「AI」と121回言ったことを明らかにした。 これは本質的に、世界中の 20 億人以上が使用する Google のすべてのアプリとサービスに AI を導入するという Google の 2 時間の基調講演の要旨でした。 イベントでGoogleが発表した主なアップデートをすべて紹介する。

ジェミニプロ

グーグル

Googleは、Gemini 1.5 Flashと呼ばれるまったく新しいAIモデルを発表し、速度と効率が最適化されているとしている。 Flash は、Gemini 1.5 Pro と Gemini 1.5 Nano の間に位置し、デバイス上でネイティブに動作する同社最小モデルです。 Googleは、Gemini Proを競合モデルと区別する100万文字の長さのコンテキストウィンドウなどの機能を維持しながら、開発者がAIを活用したアプリやサービスを構築するためにGemini Proよりも軽量で安価なモデルを望んでいたため、Flashを作成したと述べた。 今年後半に、Google は Gemini コンテキスト ウィンドウを 200 万トークンに倍増します。これは、2 時間のビデオ、22 時間の音声、および 60,000 行以上のコード、または 140 万語以上の単語を一度に処理できることを意味します。 . 時間。 。

アストラプロジェクトアストラプロジェクト

グーグル

Googleは、世界的なAIを活用したアシスタントの初期バージョンであるProject Astraを披露したが、GoogleのDeepMindのCEOであるデミス・ハサビス氏は、これは「日常生活に役立つ可能性がある」AIエージェントのGoogle版であると述べた。

Googleがワンテイクで撮影したと発表した動画では、AstraユーザーがロンドンのGoogleオフィス内を携帯電話を持って動き回り、さまざまなもの(スピーカー、ホワイトボード上のコード、窓の外)にカメラを向け、自然な会話をしている。アプリがどのようなコマンドかを説明します。 そして、ビデオの中で最も印象的な瞬間の 1 つでは、ユーザーが一度も眼鏡を持ち上げることなく、彼女が以前に眼鏡をどこに置いたかをユーザーに正確に伝えています。

ビデオは驚きで終わります。ユーザーが紛失した眼鏡を見つけて装着すると、ユーザーがカメラ システムを内蔵しており、Project Astra を使用してユーザーとシームレスに会話できることがわかります。これは、次のことを示唆している可能性があります。 GoogleはMetaのRay Banスマートグラスの競合製品の開発に取り組んでいる可能性がある。

写真に質問してください写真に質問してください

グーグル

Google フォトは、特定の写真やビデオの検索に関してはすでに賢い機能を備えていましたが、AI によって Google は物事を次のレベルに引き上げています。 米国の Google One 加入者であれば、この機能が今後数年間にわたって展開されると、Google フォトに「これまでに訪れたすべての国立公園の最高の写真を見せて」などの複雑な質問をすることができるようになります。数か月。 Google フォトは、GPS 情報と、何が「最適」であるかを独自に判断して、オプションを提供します。 ソーシャル メディアに写真を投稿するためのキャプションを生成するように Google フォトに依頼することもできます。

ビュービュー

グーグル

Google の新しい AI を活用したメディア作成エンジンは、Veo および Imagine 3 と呼ばれます。Veo は、OpenAI の Sora に対する Google の答えです。 Googleは、「1分以上」続く「高品質」の1080pビデオを作成でき、タイムラプスなどの映画の概念を理解できると述べた。

一方、Imagen 3 は、Google が以前の Imagen 2 よりもテキストをうまく処理できると主張しているテキストから画像へのジェネレーターです。その結果、「驚くべきレベルの詳細」を備えた同社の最高品質のテキストから画像へのモデルが完成し、「現実的」になります。 、本物のような画像。」そしてアーチファクトが少なく、基本的に OpenAI の DALLE-3 と競合します。

Google検索Google検索

グーグル

Google は検索の基本的な仕組みに大きな変更を加えています。 本日発表されたアップデートのほとんどは、非常に複雑な質問 (「ボストンで最高のヨガまたはピラティス スタジオを見つけて、サービス内容とビーコン ヒルからの徒歩時間の詳細を表示する」) を尋ねたり、検索を使用して食事や休暇を計画したりする機能のようなものです。 これは、ベータ機能を試用できる同社のプラットフォームである Search Labs にサインアップしない限り利用できません。

しかし、GoogleがAI Overviewsと呼んでいるこの大きな新機能は、同社が1年間テストしてきたもので、ついに米国の数百万人に展開されることになる。 Google 検索では、AI が生成した回答がデフォルトで結果の上部に表示されるようになり、同社はこの機能を年末までに世界中の 10 億人以上のユーザーが利用できるようにすると述べています。

Android 上のジェミニAndroid 上のジェミニ

グーグル

Google は Gemini を Android に直接統合しています。 今年後半に Android 15 がリリースされると、Gemini はユーザーが再生しているアプリ、写真、ビデオを認識し、それをオーバーレイとしてドラッグして、コンテキスト固有の質問をできるようになります。 すでにこれを行っている Google アシスタントはどうなるでしょうか? 誰を知っていますか! Googleは今日の基調講演でこのことをまったく取り上げなかった。

他にもたくさんのアップデートがありました。 Googleは、AIが生成したビデオやテキストに電子透かしを追加し、GmailやドキュメントのサイドパネルからGeminiにアクセスできるようにし、WorkspaceでAIを活用した仮想同僚をサポートし、通話を聞き、実際に詐欺に遭っているかどうかを検出すると発表した。時間など。

Google I/O 2024 のすべてのニュースをライブでフォローしてください ここ

READ  リアルタイム動画は、AI 技術の次の飛躍となる可能性があります