デザイナーの新しい常識!「Adobe Sensei」が告げる次世代デザイン環境の到来

Creative Cloud

昨年のAdobe MAXで発表されたアドビのAI、そのネーミングから話題になったAdobe Senseiを覚えている人も多いのではないでしょうか。あれから一年が経過した今年のMAXでは、「センセイ」の言葉がいろんな場面で聞かれ、これからのアドビ製品の中核を担う存在である様子が伺えました。特に、基調講演でのデザイナーとAIの将来の関係を提示したデモには、本格的なパラダイムシフトの始まりを感じた会場全体が大きな驚きに包まれました。

この記事では、デザイナーの働き方を変えてしまうかもしれないAdobe Senseiが向かう先を、Adobe MAX 2017の基調講演やスニークスで実演されたデモの内容を追いながら紹介します。

Adobe Senseiはこれまでの常識をどう変えるのか

その1. 「人並みの作業」をこなす

Adobe Senseiの一番の特徴は、デザインにとっての意味を理解することです。これはどんな違いをもたらすでしょうか?例として、スニークスで開発中の機能として紹介された、Senseiと、既存の機能による画像の塗りつぶしとの差を比べてみましょう。

下の図の左側は元画像です。鼻の上に絆創膏が張られています。これを「コンテンツに応じた塗り」の機能を使って修正したのが中央の画像、そして右側は、「Senseiの助けを借りた塗り」です。このケースでは、「コンテンツに応じた塗り」は明らかにうまく機能していません。「コンテンツに応じた塗り」は画像内のパターン認識に頼っていることから、塗りつぶす領域を「目の様なパターンが繰り替えされる場所」と判断したようです。

一方、Senseiは、対象が人物の画像であること、塗る位置にあるものが鼻であることを理解しています。更に、この画像内には含まれてなくても、他の画像で鼻がどのように描かれているかを知っています。そのため、鼻らしい塗りになるのです。

デザイナーがレタッチするなら、これは当たり前のことでしょう。そのデザイナーにとっては当たり前の、作業の意味が理解できるSenseiは、これまでならアシスタントにお願いしなければならなかったような、人並みの作業をこなす能力を有しています。

その2. 「人並み以上の作業」をこなす

Senseiは人工知能ですから、演算処理なら人間よりもずっと高速です。新しいアドビの3DデザインツールAdobe Dimensionは、Senseiの力を借りることで、本当だったら手間のかかる作業が楽になっている良い例です。下の画像は、3Dモデルの表面にIllustratorで作成したグラフィックを配置しているところです。ドラッグするとグラフィックは3Dサーフェスに沿って移動するため、配置の検討が容易になっています。

3Dモデルの後ろに背景画像を配置すると、Senseiは、背景画像の撮影時のカメラの位置や光源を計算します。そして、それに合わせてモデルの配置やライティングを調整します。これにより、背景画像と一緒にモデルを撮影したかのような自然な構図が簡単につくれます。これは3Dの専門家であっても、即座にできる作業ではないでしょう。

下の図のどちらがSenseiによる調整後かは明白ですね。調整後の画像には、後方の窓から差す光に対応した影もできています。自動調整の結果を更に調整して、3Dモデルの正面を明るくするといった作業も、Senseiの助けを借りれば簡単に行えます。

その3. デザイナーのスタイルを学習する

さて、Senseiには学習能力がありますから、学べば学ぶほど気の利いた協力者に成長します。これには、世界中でアドビ製品を使用してつくられるクリエイティブの学習に加えて、クリエイター各々の特徴の学習も含まれます。そのため、Senseiは、クリエイターが何を求めているのか予測できる上に、クリエイターごと状況に応じた提案をすることが可能です。Senseiの知性が光る側面です。

下の場面では、デザイン内にタイトル文字を配置しようとしています。使われているツールは、Senseiが統合されたプロトタイプのPhotoshopです。Senseiは、このデザイナーがこれまで同じようなプロジェクトで使用したテキストスタイルの傾向から、使われそうなスタイルを予測します。

上の画面内には、Senseiが選んだテキストレイアウトのテンプレートが3種類とフォントが4種類、リスト表示されています。

提示されたリストからテンプレートやフォントを選択すると、Senseiがデザイン上に配置して結果を見せてくれます。デザイナーは、クリック操作だけで、提案された組み合わせの中からイメージに近いものを探せます。

その4. ルールを学んで実践できる

もう一つ例を見てみましょう。こんどはUIのデザインです。

下の画像は、タブレット用のUIデザインです。人の目にはUIに見えても、ツールにとってはただのレイヤーの積みかさねです。マメにレイヤーに名前を付ける人もいるでしょうが、それはツールに理解させるためではなく、おそらく後で人が見たときの理解を助けることが目的でしょう。

一方、Senseiは、UIデザインを理解し、基本的なレイアウトルールや主要な要素の役割も知っています。どの要素がグループ化されているのか等も認識します。Senseiが統合されたプロトタイプのAdobe XDなら、タブレット画面のデザインから異なる画面サイズのレイアウトをつくるよう指示されれば、ルールに従って案を作成してくれます。

下の図は、iPhone 8用のレイアウトを、Senseiがタブレット用のデザインから各画面3種類ずつ生成したところです。

その中から画面ごと気に入ったものを選択し、カンバスにドラッグすれば、そこからレイアウト作業を始められます。空白のアートボードから始めるよりはずっと楽ですね。下の図の下段のように、画面間の遷移情報もタブレットのデザインからちゃんとコピーされています。

このような「ルールに従うパターン出し」の作業は、画面の種類が増えるほど退屈な作業になりがちですが、とはいえ、誰かがやらなければなりません。しかも、誰にでもできる作業ではありません。Senseiなら誰よりも早く成果を提示できるでしょう。

アドビのAIはコミュニティと共に成長する

世間では、AIがデザイナーの仕事を奪うというような説もささやかれますが、ここまでに確認したSenseiの特徴は、むしろ一緒に考えてくれる、面倒な作業を引き受けてくれる、かつてない有用なパートナーとしての可能性を感じさせます。実際、Senseiとのデモは、一人で演じていてもしばしば対話型になるのが面白いところです。

Senseiはクリエイティブに特化したAIです。クリエイターの作業の意味を理解できるよう設計されています。世界中で多くの人々がアドビ製品を使ってクリエイティブな作業をしていますが、そのコミュニティ全体から、最新のワークフローを学び続けられるのはSenseiの特権にも近い強みです。

Photoshopの新機能、画像のアップスケールにSenseiの機能が使われている

例えば、Senseiは、PhotoshopやIllustratorでつくられたグラフィックアセットを学習します。Adobe Stockのアセットがどのように検索されているかを学習します。ツールやサービスの使用に限定するなら、Senseiは誰よりもクリエイティブの現場を見ています。そして、集められたインテリジェンスは個々のクリエイターに還元されます。

Illustratorの新機能、パペットワープもSenseiの機能を利用している

Senseiがいれば、作業者は、過去の制作からの経験に基づく支援の恩恵を受けながら、新しいクリエイティブに専念できます。そして、その新しいクリエイティブからの新しい学びが、Senseiを更に賢くします。Senseiはコミュニティと共に成長するAIなのです。

アドビは、こうしたAIのワークフローへの統合を、デスクトップツールからモバイル&クラウドサービスへの移行に匹敵する、大きな変革と捉えていると発表しています。

ツール、クラウドの次は、インテリジェンスの時代

Senseiの進化が向かう先

現在は、ツールやサービスの機能を通して間接的にSenseiを利用するケースが主ですが、将来は、クリエイターが直接Senseiとやり取りする手段も提供されそうです。現在開発中の、Senseiの将来の姿が見えるデモを3つ紹介します。

1. クリエイティブ・アシスタント

Senseiは、必要な時にはそばにいて、不要な時には邪魔をしない存在であるべきです。デモで使われていたのは、Senseiサーフェスが追加されたPhotoshopでした。Senseiサーフェスは画面の右側にあり、Senseiからの情報が表示されます。サーフェス内の入力フィールドをクリックして話しかけると、Senseiは言葉を解釈して、命令を実行してくれます。全画面表示にしたり、不要なときは閉じることもできます。以下は、与えられたスケッチからSenseiが使えるアセットを見つけてくれるというシナリオです。

まず、カンバス上にスケッチを配置

カンバス上にスケッチを配置すると、Senseiは、そこに「女性」「星」「ロケット」などが書かれていることを認識しました。

認識したオブジェクトに加え、似た画像を検索する際によく使われるキーワードも提示されている

似た素材を探すように話しかけると、ローカルディスクやストックフォトから役に立ちそうなアセットを検索します。結果はSenseiサーフェスに表示されます。スケッチと音声だけで、作業に手を付けるための女性や宇宙の素材を見つけてくれました。

Senseiサーフェスに、Senseiが見つけたアセットが表示された

2. コンテント・インテリジェンス

例えば、何百枚もある画像の中から1枚を選ぶのは骨の折れる作業です。Senseiはデザインの特徴を把握する能力があるので、何かの基準を与えれば、それに沿ってアセットを並べ替えることができます。下の例は、俳優の顔の向きを基準にして、画像を選ぶというシナリオです。

まず、俳優の画像を配置します。

Senseiはこの画像内に「女性」「顔」「宇宙服」、そして背景の「ステージライト」「脚立」の5つの要素を認識しました。

5つの要素から「顔」を選ぶと、Senseiは「上下」「左右」「笑顔」「目」の4つの項目を表示します。このデモでは、顔については4つの基準が利用できるということのようです。

ここで「左右」を選択すると、Senseiは顔の向きが左から右になるよう画像を並べ替えます。これで、顔の向きを基準に画像を選択する準備ができました。

顔がアップになって表示されるので、顔の下の青いコントロールを左右に移動します。すると、それに従って選択されている画像の顔が左右に向きます。

イメージが固まったら、それに近い角度の写真だけを比べて選ぶことが簡単にできます。

3. クリエイティブ・グラフ

完成した後になって、やっぱりあの時あっちを選んでいれば、というのはよくある話です。そんな時に簡単に決断した時点に戻れるとしたらどうでしょう?Senseiは自分が関わった選択であれば、どの段階でどのような選択をしたかを覚えています。その様子をグラフに表示して、その中の特定の選択だけをやり直す、というのが下のシナリオです。

上の図の右側は、左側のデザインが今の状態になるまでの経緯を示したグラフです。このグラフは見るだけでなく、選択して操作することができます。

例えば、女優の写真の選択を表す円をクリックすると、該当するグラフの一部がハイライト表示されます。次に、グラフの枝を、顔の向きを基準に選択した場面まで辿り、改めて「左右」を選択すると、顔の近くにコントロールが表示され、顔の向きを変えることができるようになります。

このとき、新しく選択した画像の女優が自動的にマスクされて合成されています。これもSenseiの機能です。

まとめ

今回の発表で、Adobe Senseiの具体的な姿が少し見えるようになりました。今後、アドビのデザイン環境に深く組み込まれていくことになるでしょう。現時点でのSenseiに対するアドビのポイントは、以下の3点に集約することができそうです。

  • 「コレクティブIQ」、すなわちコミュニティ全体の知恵を束ねて活用する
  • クリエイティブな作業プロセスや制作物の意味を理解できる能力
  • AIができることはSenseiに任せる、人は人だけができることに集中する

アドビは、これらの達成が、クリエイティビティの増幅につながると信じているようです。実際、デジタルデザインの世界では、複雑化するテクノロジーや大量のデータへの対応など、クリエイター個々人の努力では限界を感じる場面がますます増えそうです。Senseiはそんなときの手放せないパートナーになってくれるかもしれません。Senseiがこれからどんな進化をするのか、楽しみです。

POSTED ON 2017.11.1

Products Featured

関連製品はありません