服装の個別アイテムの特徴に注目して曖昧なファッションの表現をAIが自動で解釈する技術を開発

早稲田大学

2023年8月8日

早稲田大学

株式会社ZOZO NEXT

<早稲田大学・ZOZO研究所 共同研究成果>

服装の個別アイテムの特徴に注目して

曖昧なファッションの表現をAIが自動で解釈する技術を開発

 

詳細は早稲田大学Webサイトをご覧ください。

 


発表のポイント

●ファッションの説明には「カジュアル」「フォーマル」「かわいい」といった曖昧な表現が用いられるため、一般のユーザーがファッションを理解・解釈することは容易ではありません。

●本研究グループでは先行研究で、ファッションへのイメージを自動的に学習・解釈し、ユーザーからの曖昧な問いに対する回答を得る技術を開発していました。今回、新たな技術として服装の個別アイテム(Tシャツ、パンツ、スカート等)に関する質問に回答可能な機械学習モデル「Partial Visual-Semantic Embedding」を開発しました。

 ● 開発モデルにより「この服装の上半身はどのくらいカジュアルか」「この服装の上半身をもう少しビジネスカジュアルにしたい」といった、ファッションに関するより詳細な質問に回答できるようになります。この成果により、着る服や購入するアイテムなどファッションに関するユーザーのあらゆる選択・行動を支援することが期待されます。

早稲田大学(東京都新宿区、総長:田中愛治)大学院創造理工学研究科博士後期課程および株式会社ZOZO NEXT(本社:千葉県千葉市、代表取締役CEO:澤田宏太郎)の研究開発組織、ZOZO研究所に在籍する清水良太郎(しみずりょうたろう)、早稲田大学理工学術院 教授の後藤正幸(ごとうまさゆき)、およびZOZO研究所の中村拓磨(なかむらたくま)による研究グループは、ファッションへのイメージを自動的に学習・解釈し、ユーザーからの曖昧な問いに対する回答を得るための「Fashion Intelligence System」※1の精度を向上させた上で、新たな機能を実現するための機械学習モデルを開発しました。

今回開発したモデルでは、「この服装の上半身(下半身、靴など)はどのくらいカジュアルか」「この服装の上半身をもう少しビジネスカジュアルにするとどのような服装になるか」などのユーザーからのより詳細な質問への回答を得ることができます。

 

本研究成果は、オランダのエルゼビア社が発行する『Knowledge-Based Systems』(論文名:Partial visual-semantic embedding: Fine-grained outfit image representation with massive volumes of tags via angular-based contrastive learning)にて2023年7月28日(現地時間)にVersion of Record(最終公開版)としてオンラインで掲載されました。

 

■今回の研究で新たに実現しようとしたこと

従来のFashion Intelligence System では、全身の服装の画像を一括で学習しており、その中に含まれる個別のアイテム(Tシャツ、パンツ、スカートなど)に関する詳細な質問への回答を得る機能を有していませんでした。

本研究では、Fashion Intelligence Systemの機能を強化し、

 1 )「この服装をもう少しフォーマルにしたらどんな服装になるか?」

 2 )「この服装はどれくらいカジュアルか?」

 3 )「この服装をカジュアルにしている要素は何か?」

といった質問に加え、

 4)「この服装の上半身(下半身、靴など)のカジュアル度はどのくらいか」

 5)「この服装の上半身をもう少しビジネスカジュアルにするとどんな服装になるか」

など、服装に含まれる個別のアイテムに注目した詳細な質問への回答も可能にしようと試みました。これらの問いに対する回答を自動的に獲得することで、ユーザーの認識の幅を広げ、ファッション(服装・着こなし)の解釈や興味喚起のための一助となることを目指しています。

 図.提案システムにより拡張された機能のイメージ 

 

■研究の波及効果や社会的影響

本研究の成果により、Fashion Intelligence Systemが回答可能な質問の範囲が広がり、ユーザーのより詳細な質問に回答することが可能になります。これにより、ファッション特有の曖昧性を軽減し、ファッションに関するユーザーのあらゆる(着る服や購入するアイテムなどの)選択・行動を支援することが期待されます。

 

■用語解説

※1 Fashion Intelligence System

本研究グループが開発した、ファッションを自動的に解釈し、ユーザーと協働することで、ファッションに関する新しい知識の発見と新しい価値の創造を促進する仕組みです(https://doi.org/10.1016/j.eswa.2022.119167)。人々の好みや価値観、文化的背景によって評価やイメージが異なる「ファッション」を対象とした、新しい知識の生成と発見を想定しています。

本技術では、全身の服装の画像と当該画像に付与された複数のタグ(ファッション特有の曖昧な表現が含まれた文字情報)の集合を同一ベクトル空間に写像させ、ベクトル空間における画像とタグの座標を活用することで機械学習を行っています。

 

■論文情報

雑誌名:Knowledge-Based Systems

論文名:Partial visual-semantic embedding: Fine-grained outfit image representation with massive volumes of tags via angular-based contrastive learning

執筆者名(所属機関名):Ryotaro Shimizu (Waseda University and ZOZO Research)、Takuma Nakamura (ZOZO Research)、Masayuki Goto (Waseda University)

掲載日(現地時間):2023年7月28日

掲載URL:https://www.sciencedirect.com/science/article/pii/S0950705123005415

DOI:10.1016/j.knosys.2023.110791

※記事にされる場合は、https://doi.org/10.1016/j.knosys.2023.110791の掲載をお願いいたします。

本プレスリリースは発表元が入力した原稿をそのまま掲載しております。また、プレスリリースへのお問い合わせは発表元に直接お願いいたします。

プレスリリース添付画像

waseda-zozo research-20230808

waseda-zozo research-0808-01_菫ョ豁」

このプレスリリースには、報道機関向けの情報があります。

プレス会員登録を行うと、広報担当者の連絡先や、イベント・記者会見の情報など、報道機関だけに公開する情報が閲覧できるようになります。

プレスリリース受信に関するご案内

このプレスリリースを配信した企業・団体

  • ※購読している企業の確認や削除はWebプッシュ通知設定画面で行なってください
  • SNSでも最新のプレスリリース情報をいち早く配信中