メインコンテンツへスキップ
通常、アプリに AI を組み込むには、APIキーを探し回り、プロバイダの課金設定を行い、すべてを自分でつなぎ込む必要があります。Lovable AI を使えば、強力な AI 機能を手早くアプリに追加できるので、よりスマートで魅力的なアプリをすぐに作り始められます。 例えば、次のようなことができます:
  • AI 要約 – 長文テキストを自動的に、要点がわかる形に要約
  • AI チャットボットやエージェント – 会話型のヘルパーをアプリに組み込む
  • 感情分析 – ユーザーからのフィードバックを大規模に把握
  • ドキュメント Q&A – コンテンツに対して直接質問できるようにする
  • クリエイティブ生成 – ブレインストーミング、コピー案作成、アイデアの拡張
  • 多言語翻訳 – グローバルなユーザーにもシームレスに対応
  • タスク完了処理 – 繰り返し作業や複数ステップのワークフローを自動化(エージェント機能)
  • 画像およびドキュメント解析 – 画像やドキュメントから重要情報をすばやく抽出・要約・解釈し、非構造データを実用的なインサイトに変換
  • ワークフロー自動化 – 繰り返しタスクの処理、意思決定、プロセスの最適化を行い、時間を節約しミスを削減

Lovable AI を有効にする

最適な体験のために、Lovable AI は Lovable Cloud と併用することをおすすめします。
デフォルトでは、Lovable AI はあなたのワークスペースおよびユーザー環境設定で有効になっています。これは、あなたがリクエストしたときに Lovable が自動的に AI 機能を追加することを意味します。プロジェクトごとの Lovable AI の動作は、ユーザー環境設定で管理できます: Settings → Integrations → Lovable AI → User preferences

デフォルトのAIモデル

Lovable AIでは、デフォルトのモデルとして Gemini 2.5 Flash を使用しています。別のモデルやモデルの組み合わせを利用したい場合は、AI機能をリクエストするときのプロンプト内で、利用したいモデルを直接指定できます。サポートされているAIモデルの一覧については、Supported AI models を参照してください。

ユーザー設定

AI 連携のデフォルト設定は 常に許可 で、Lovable AI がプロジェクトで自動的に使用されます。Settings → Integrations → Lovable AI → User preferences から、いつでも設定を変更できます。 次のいずれかを選択できます:
  • 常に許可: レビューや承認を求めずに、Lovable が自動的にアクションを実行します。
  • 毎回確認: アクションが必要なときに毎回、Lovable があなたに承認を求めます。たとえばチャットボットを追加したい場合、次のいずれかを選べます:
    • 許可: 現在のプロジェクトに対して連携を有効にします。
    • 拒否: このリクエストに対する連携を拒否します(後で再度尋ねられる場合があります)。
    • 設定を変更: 今後のプロジェクトに対するデフォルトの動作を変更します(現在のプロジェクトには影響しません)。
  • 常に拒否: Lovable がアクションをブロックし、AI が必要であることを知らせ、Lovable AI を有効にするよう案内します。

利用方法と料金

Lovable AI には 従量課金モデル が適用されます。つまり、利用量に応じてコストが増減し、サブスクリプション料金には含まれません。 Lovable AI の利用コストは、LLM プロバイダーを直接利用する場合とまったく同じです。隠れた手数料はありません。コストを確認するには、以下のサポート対象 AI モデル一覧にある公式情報ソースへのリンクを参照してください。 各ワークスペースには、毎月 $1 分の無料 AI 利用枠 が含まれています。その後は、有料プランのユーザーであれば、選択した基盤モデルに応じたコストで残高をチャージできます。
一時的な提供内容であり、変更される可能性があります: 2025 年末まで、すべてのワークスペースは、Free プランのユーザーも含めて、毎月 $25 分の Cloud と $1 分の AI を利用できます。
AI の利用コストは、Settings → Usage で確認および管理できます。詳細と具体例については、Usage-based Cloud and AI pricing を参照してください。

対応している AI モデル

Lovable AI ではデフォルトのモデルとして Gemini 2.5 Flash を使用しますが、エージェントへのプロンプトで別のモデルや、複数モデルの組み合わせを使うよう指示することもできます。
ModelDescriptionBest for
Gemini 3 ProGoogle の最新フラッグシップ Gemini モデル。2.5 Pro と比べて、推論精度の向上、より大きなコンテキストウィンドウ、優れたマルチモーダル対応、より信頼性の高いツール利用が可能。動作は遅く、料金はプレミアム帯。高度なエージェント、複雑なリサーチ、長期的な推論、高精度が求められるマルチモーダル分析
Nano Banana ProGemini 3 Pro の画像アーキテクチャ上に構築された画像生成・編集モデル。スタジオクオリティの高解像度ビジュアルに対応し、画像内テキストや複数画像の合成に最適化。ビジュアルアセットの作成、大量画像ワークフロー、インフォグラフィック、デザイン/クリエイティブコンテンツの迅速なプロトタイピング
Gemini 2.5 Pro最も高機能で複雑な Gemini。高度な推論や大きなコンテキストに対応する一方で、動作は最も遅く、コストも最大。深い推論、高度なコーディング、リサーチ、複雑なマルチモーダルタスク
Gemini 2.5 Flash (default)バランス型モデル。Pro より高速かつ低コストでありながら、十分な推論能力を備える。コストは中程度。アシスタント、分析、速度と知性のバランスが重要な一般的なワークフロー
Gemini 2.5 Flash Lite最も高速かつ低コストな Gemini。大規模な単純タスクの処理に適するが、推論の深さは控えめ。分類、要約、翻訳などの大量の軽量タスク
Gemini 2.5 Flash Image画像生成に最適化されたモデル。1 枚あたりのコストが非常に安価で、テキストの推論には向かない。画像生成、迅速なビジュアル出力
GPT-5OpenAI で最も高性能なモデル。強力な推論能力と高い精度を持つが、動作は最も遅く、コストも最大。最高レベルの推論、精度が重要なアプリケーション、複雑な意思決定
GPT-5 Miniバランス型の GPT-5。GPT-5 より安価かつ高速で、複雑さはやや劣るものの、汎用用途に強い。アシスタント、中程度の複雑さの推論、ビジネスワークフロー
GPT-5 Nano最も低コストかつ高速な GPT-5。ごく基本的な推論に適しており、素早い応答や単純な応答に最適。要約、分類、抽出、大量の単純タスク

最適かつ最もコスト効率の高い選択肢

  • 総合的な知能が最優秀: Gemini 3 Pro、GPT-5、Gemini 2.5 Pro(高度な推論が可能だが最も高価)
  • バランス重視(速度 + コスト + 賢さ): GPT-5 Mini、Gemini 2.5 Flash
  • 大規模運用時のコスト効率が最優秀: GPT-5 Nano、Gemini 2.5 Flash Lite(シンプルで高速、最も低コスト)
  • 画像処理に最適: Nano Banana Pro、Gemini 2.5 Flash Image

ワークスペースのレート制限

すべてのユーザーに対して安定したパフォーマンスと公平なアクセスを確保するために、Lovable AI はワークスペースごとにレート制限を適用しています。これらの制限により、システムの安定性を維持し、不正利用を防止し、コストを管理し、すべてのユーザーに一貫した体験を提供できます。 リクエストが許可されたレートを超えた場合、サーバーは 429 Too Many Requests ステータスコードを返し、そのリクエストは処理されません。 レート制限は無料ユーザー向けのほうがより厳しく設定されており、有料プランではより高い上限と柔軟性が提供されます。
  • 無料プランのユーザー: 上限を引き上げるには、いつでもアップグレードできます。
  • 有料プランのユーザー: 追加の利用枠が必要な場合は Lovable Support に連絡してください。