Adobe MAX 2025 現地レポート──複数のAIモデルをワンストップ提供、生成AIを使い分ける時代の到来

Adobeは2025年10月28日~30日(現地時間)に、米・ロサンゼルスで開催したクリエイター向けイベント「Adobe MAX 2025」において、今後自社のクリエイティブツールで、GoogleやOpen AIなど他社製モデルを含む、複数の生成AIモデルを利用できるようにする方針を正式に表明しました。各モデルとの契約や料金も、Adobeのプラットフォームに一元化されます。やりたいことにあわせて生成AIをどう使い分けるかという、新たなフェーズに入ったとも言えそう。Adobeの発表内容を現地からレポートします。

目次

「Adobe Firefly」に加え、パートナーの生成AIモデルも提供

現在、Adobeが提供する生成AI「Adobe Firefly」には、画像生成のImage Model、動画生成のVideo Modelなど複数のモデルがあり、専用サイトで提供されているWeb版のほか、「Adobe Photoshop」「Adobe Illustrator」「Adobe Premiere(Premiere Pro改め)」など、クリエイティブツールの機能の一部として組み込まれています。

例えばPhotoshopの「生成塗りつぶし」機能では、選択箇所を文章での指示(テキストプロンプト)や周囲の画像にあわせて生成したイメージで、自然に塗りつぶすことが可能。Photoshopの最新版ではすでにこの機能で、Firefly Image Modelに加え、Googleの「Gemini 2.5(Nano Banana)」など、サードパーティー製の生成AIモデルが選択できるようになっています。Firefly のWeb版ではさらにOpenAI の「GPT image」など、多くのサードパーティー製モデルが「パートナーモデル」として利用できます。

FireflyのWeb版では、最新の「Firefly Image Model 5」ほか、動画の編集やサウンドトラックや音声の生成、
テキストプロンプトによる編集など多くの機能がアップデートされた(写真/著者撮影)

キーノートに登壇した、Adobe会長兼CEOのシャンタヌ・ナラヤン氏は、自社のクリエイティブツールから利用できる生成AIモデルを、パートナーモデルにまで拡張する理由について、「クリエイターに多くの選択肢を提供するため」だと説明しています。モデルにはそれぞれ異なるスタイルや特徴があり、それらを1カ所に集約してワンストップで使えるようにすることで、クリエイターのアイデアや表現の幅を広げられるという考えです。

Adobeが提供する生成AIモデルは「パートナーモデル」に加えて、ユーザー仕様のカスタムモデルも利用できる(写真/著者撮影)

クリエイターの作風を学習させたカスタムモデルも利用可能に

Firefly のWeb版ではさらに、個人クリエイターを対象にした「Fireflyカスタムモデル」のプライベートベータテストも開始されています。カスタムモデルとは、Adobeの生成AIモデルをベースにユーザーが独自のデータを追加学習させたモデルのこと。ユーザーが制作した作品からスタイルやタッチ、カラーなどの“作風”を学習して、新しいイメージを生成できます。企業向けには、ブランドが自社のアセットを使用してAIをカスタムできる機能がすでに提供されていますが、個人クリエイターもドラッグ&ドロップで過去作品を読み込むだけの簡単な操作で、同様のことができるようになります。

デモではクリエイターが権利を持つ、過去の作品から学習し、イメージを生成する様子を紹介(写真/著者撮影)
人物と花を組み合わせた作風から、動物と花を組み合わせた新たなイメージのバリエーションを生成(写真/著者撮影)
生成したイメージを活かした新たな作品を制作した(写真/著者撮影)

Adobeで生成AIを担当するバイスプレジデントのアレクサンドル・コスティン氏は、現地で開催されたメディア向けのセッションで、「私たちの戦略の核心は、信頼できる生成AIを推進する企業になること。その実現のためにあらゆる優れたモデルを結集したい。Adobeはこれまで、(権利がクリアなデータのみで学習した)安心して商用利用できるモデルを提供してきました。加えてパートナーモデル、カスタムモデルのすべてをひとつの場所に統合し、ひとつのサブスクリプションでアクセスを可能にします。引き続きこれらのモデルを活用したツールやワークフローに注力し、クリエイターの作業の効率化に結びつけていきたい」と話しています。

AdobeのジェネレーティブAI&Adobe Sensei担当 バイスプレジデントのアレクサンドル・コスティン氏(写真/著者撮影)

今後はPhotoshop、Illustrator、Premiereなどのクリエイティブツールでも、Adobe独自の生成AIモデル、パートナーモデル、さらに自分仕様のカスタムモデルと、複数のモデルを目的に応じて選んで利用することになっていくでしょう。同じツール上で生成AIを使い分けたり組み合わせたりすることで、そこからまた新たなアイデアを生み、さらなる作業の効率化を実現できる。もはや生成AIを使うか使わないかではなく、使うことを前提とした上で、さらに複数のモデルをどう使いこなすかのフェーズに入った……と言えるかもしれません。

自然言語で指示するだけ。対話型のアシスタントも導入

Adobe MAX 2025ではさらに、「Adobe Express」やPhotoshopに、対話型の「AIアシスタント」機能が導入されることも発表されています。自然言語でこうしてほしいと伝えるだけで、色の変更や要素の追加といった操作を実行してくれるというもの。また、OpenAIの「ChatGPT」上でAdobe Expressなどのツールを直接利用できるようにする、連携機能も紹介されています。アイデアのために「生成AIで試してみる」だけでなく、「生成AIと相談しながらつくる」ことも可能になるということです。

ChatGPTとブレインストーミングしたアイデアを、同じ画面上のAdobe Expressで具現化できる(写真/著者撮影)

コンテンツ制作のプロセス大きく変わりそうですが、コスティン氏は「AIアシスタント」について、「新しいクリエイターが生成AIの助けを借りられるため」だとしています。「AIと対話してつくることもでき、クリエイター自身がすべてコントロールすることもできる。どちらにもスイッチできる、ハイブリッドな生成AI体験にしたい」と付け加えました。

Text :太田百合子

  • URLをコピーしました!
目次