WanderLensは、Gemini Multimodal Live APIを活用した次世代のお出かけサポートアプリケーションです。 リアルタイムの音声会話によるサポートと、マルチモーダルAIを組み合わせることで、外出や旅行をより楽しく豊かな体験にします。
- カメラを通じた環境認識とリアルタイム情報提供
- 建物、看板、メニューなどの即時認識と解説
- ARオーバーレイによる直感的な情報表示
- ユーザーの好みを考慮した最適ルート提案
- 周辺スポットのリアルタイム提案
- 歩行者に特化した細やかなルート案内
- Firestoreを活用した会話履歴の永続化
- ユーザーの興味・好みに基づく推薦
- 過去の訪問履歴を活用した提案
- 周辺施設検索(Places API)
- 経路案内(Maps API)
- 多言語翻訳(Translation API)
- セッション要約(Vertex AI)
- Next.js
- TailwindCSS
- Framer Motion
- Gemini Multimodal Live API
- Firebase Authentication
- Firestore
- Cloud Run
- Google Places API
- Google Maps JavaScript API
- Translation API
- Vertex AI
リポジトリのクローン
git clone https://github.com/yuting0624/WanderLens.git
依存関係のインストール
npm install
開発サーバーの起動
npm run dev- WanderLens デモにアクセス
- Googleアカウントもしくはメールアドレスでログイン
- 「接続する」ボタンをクリックしてWanderLensを起動
- 以下の機能を試してみてください:(ユーザーはテキスト入力、音声入力どちらでも可)
- 📸 カメラを起動して建物や看板を撮影しながら質問(今日の天気、写っているものについてなど何でもOK)
- 💬 周辺スポットについて質問(例:渋谷駅近辺のカフェを探して)
- 🗺️ 行きたい場所までのナビゲーションを依頼(歩行や自転車に限る)
- マルチモーダル機能: 画像認識と会話の自然な連携
- コンテキスト理解: 会話の文脈を踏まえた応答
- Toolの使用: シームレスの連携およびユーザーの好みや状況に応じた提案
:::message alert 現在、一部機能は試験運用中のため、動作が不安定な場合があります。 エラーが発生した場合は、ページをリロードしてお試しください。 :::
-
機能拡張
- 音声認識の強化
- 電話予約代行機能
- AR技術の拡充
-
プラットフォーム展開
- ネイティブアプリ化
- オフライン対応
- ウェアラブル対応
-
ビジネス展開
- 地域事業者連携
- プレミアム機能
- グローバル展開
このプロジェクトは、AI Agent Hackathon with Google Cloudの一環として開発されています。
MIT License
プルリクエストは大歓迎です。大きな変更を加える場合は、まずissueを作成して変更内容を議論しましょう。