ZOZO研究所が機械学習のトップカンファレンス「ICLR 2026」で2本の論文採択!AIモデルの統合と公平性を進化させる最新技術を深掘り

ZOZO研究所、機械学習のトップカンファレンス「ICLR 2026」にて2本の論文採択

株式会社ZOZO NEXTの研究開発組織である「ZOZO研究所」が、機械学習のトップカンファレンスとして知られる「ICLR(The International Conference on Learning Representations) 2026」にて、2本の論文が採択されたことを発表しました。ICLRは、「NeurIPS(Neural Information Processing Systems)」や「ICML(International Conference on Machine Learning)」と並び、機械学習分野において最も権威のある学術会議の一つです。この採択は、ZOZO研究所が最先端のAI技術開発において国際的に高い評価を受けていることを示しています。本記事では、採択された2つの論文の内容を、AI初心者にも分かりやすい言葉で詳しく解説していきます。

ZOZO研究所とは?ファッションとAIの融合を追求

ZOZO研究所は、「ファッションを数値化する」というユニークなミッションを掲げ、ZOZOグループが持つ膨大なファッション関連データを活用し、ファッションを科学的に解明するための研究開発を行っています。設立は2018年1月31日で、その研究成果は多岐にわたります。ファッションECにおけるAIモデルの実装を目指し、効率性と公平性を両立させるための実践的なツールの開発にも力を入れているのが特徴です。

ZOZO研究所の活動については、以下のURLから詳細を確認できます。

論文1:AIモデル統合の安定性を高める「DisTaC」

DisTaC: Conditioning Task Vectors via Distillation for Robust Model Merging

研究の背景:モデルマージの可能性と課題

近年、複数のAIモデルをそれぞれ追加学習させることなく統合する「モデルマージ」という技術が注目されています。これは、異なる機能を持つAIモデルを、データを一箇所に集めることなく、低コストで組み合わせた新たなAIモデルを構築できる可能性を秘めているため、実用化への期待が高まっています。

しかし、これまでの研究では、すべてのモデルが同じ条件で学習された「理想的な環境」を前提としたものが多く、実際の開発現場で起こり得る性能低下の問題については、十分に検証されていませんでした。例えば、学習データの種類や量、学習方法が異なるモデルを統合しようとすると、期待通りの性能を発揮できない、あるいはかえって性能が低下してしまうといった問題が発生していました。

性能低下の原因を特定:2つの主要な問題

本研究では、現実的な状況下でモデルマージの性能が低下する主な原因として、以下の2つの問題を特定しました。

  1. モデル間のパラメータノルムの乖離: AIモデルは、学習を通じて「パラメータ」と呼ばれる内部の数値を調整することで、知識を獲得します。このパラメータの「ノルム」(簡単に言えば、パラメータの大きさや影響力)がモデルごとに大きく異なると、統合時に問題が生じます。特に、大きなノルムを持つモデルが他のモデルの知識を「打ち消して」しまい、統合後の性能が著しく低下することが明らかになりました。
  2. モデルの予測確信度の低さ: AIモデルが何かを予測する際、「確信度」と呼ばれる数値を出力します。例えば、「これは犬である」と99%の確信度で予測する場合と、51%の確信度で予測する場合では、その信頼性が大きく異なります。本研究では、慎重でバランスの取れた予測を行う、つまり予測確信度が低いモデルを統合に用いると、統合後のモデルの性能が大幅に低下することが分かりました。これは、確信度の低い情報が他のモデルの有用な情報を曖昧にしてしまうためと考えられます。

提案手法「DisTaC」:統合前の調整で安定性を向上

これらの課題に対し、本研究では「DisTaC」という新しい調整手法を提案しています。DisTaCは、モデルを統合する前に、ラベルなしデータを用いた短時間の追加学習を行うことで、上記の問題因子を取り除く手法です。具体的には、以下のようなプロセスでモデルを統合に適した状態に整えます。

  • パラメータノルムの乖離の是正: 各モデルのパラメータノルムを均一に近づけることで、特定のモデルが他のモデルの知識を打ち消してしまうことを防ぎます。

  • 予測確信度の調整: 統合時に悪影響を及ぼすような過度に低い確信度を解消し、各モデルがより信頼性の高い予測を行うように促します。

実験では、従来のモデルマージ手法では統合後に性能が大きく低下していた条件下でも、DisTaCを適用することで性能低下が抑えられ、安定した統合結果が得られることが確認されました。これにより、モデルマージがより現実的な環境で活用されるための道が開かれました。

今後の展望:ファッションECへの応用

本研究は、モデルマージを現実的な状況下で安定的に活用する上での課題と、それに対する具体的な調整手法を整理しました。検証は主に画像認識や自然言語処理の分類タスクで行われましたが、近年注目が集まる画像生成やテキスト生成といった「生成タスク」においても同様の課題が当てはまると考えられます。

ZOZO研究所は、今後、ファッションECを想定したAIモデルの開発において、本研究で得られた知見の有効性を検討していくとしています。例えば、異なるファッションアイテムの識別モデルや、顧客の好みを予測するモデルなどを効率的に統合し、よりパーソナライズされたサービス提供に役立てることが期待されます。

論文の概要

  • タイトル:「DisTaC: Conditioning Task Vectors via Distillation for Robust Model Merging」

  • 著者:東京科学大学/吉田 晃太朗氏、独立研究者/楢木 悠士氏、京都大学/堀江 孝文氏、株式会社ZOZO NEXT/清水 良太郎、モントリオール大学・Mila/Ioannis Mitliagkas教授、モントリオール大学・Mila/長沼 大樹氏

  • 論文URLhttps://openreview.net/forum?id=W70w5JCzdq

論文2:AIの公平性を追求する「タスク演算」の役割

On Fairness of Task Arithmetic: The Role of Task Vectors

研究の背景:大規模言語モデルにおける公平性の重要性

ChatGPTに代表される大規模言語モデル(LLM)の活用が急速に進む中で、AIが下す判断の「公平性」が非常に重要な課題となっています。AIは学習データに基づいて判断を行うため、学習データに偏りがあると、特定の属性(人種、性別、年齢など)に対して不公平な判断を下してしまう可能性があります。例えば、ヘイトスピーチ検出タスクのように、学習データや判断基準に偏りが入りやすい分野では、元のモデルが持つ偏りを十分に修正できず、不公平な判断を残したり、強めてしまう懸念がありました。

LoRA(Low-Rank Adaptation)などの効率的な学習手法は、計算コストを抑えながらモデルを追加学習させる際に広く用いられていますが、これらの手法だけでは、AIモデルの持つ偏りを完全に解消することは難しいとされていました。

本研究では、追加学習を伴わずにモデルの振る舞いを調整できる「タスク演算」という手法に着目し、その公平性への影響を体系的に明らかにしました。

タスク演算とタスクベクトル:公平性調整の新たなアプローチ

本研究では、AIモデルの重みの差分である「タスクベクトル」を用いた手法が、AIモデルの性能と公平性のバランスを調整できる有効な手段であることを示しました。タスクベクトルとは、ある特定のタスク(例: ヘイトスピーチ検出)を学習する前と後で、AIモデルの内部にある「重み」と呼ばれる数値がどれだけ変化したかを示すものです。この変化をベクトルとして捉え、ベースとなるAIモデルに足し合わせることで、追加学習なしにモデルの振る舞いを調整できるのがタスク演算です。

従来の全体再学習やLoRAと比較し、タスクベクトルをベースモデルに足し合わせる際の「調整量」を変えることで、精度を保ちながら不公平さを抑えられるかを検証しました。

実験結果:精度を維持しつつ不公平さを軽減

実験では、文章や画像を扱う複数のAIモデルを用い、ヘイトスピーチ検出や年齢分類などのタスクを対象に評価が行われました。その結果、タスク演算は精度を大きく損なうことなく、特定の属性グループ間で生じる判断の偏り(不公平さ)を軽減できることが確認されました。

さらに、以下の重要な知見が得られました。

  • 調整係数の重要性: タスクベクトルの調整の強さを表す係数を適切に設定することで、AIモデルの精度を大きく損なうことなく、公平性を高められることが分かりました。

  • サブグループへの効果: 通常の学習方法である全てのパラメータを再学習したモデルにおいて、公平性指標が特に悪かった特定の人種や性別などのサブグループのタスクベクトルを抽出し、それをモデルに注入することで、不公平さを緩和できる場合があることも確認されました。これは、特定の偏りをピンポイントで修正できる可能性を示唆しています。

  • 調整の注意点: 一方で、あるグループのタスクベクトル注入が、別のグループの公平性を悪化させるケースも存在することが明らかになりました。このことから、タスク演算を用いた調整方法の設計には、慎重な検討が必要であることも示されました。AIの公平性は多面的な課題であり、一つの側面を改善しようとすると、別の側面で問題が生じる可能性もあるため、全体的なバランスを考慮する必要があります。

これらの実験結果については、タスクベクトルの調整量が公平性指標に与える影響を解析する理論的な分析によって裏付けられています。

今後の展望:より大規模なAIへの応用と実践的ツールの開発

本研究は、タスク演算が公平性を意識したAIの調整手法として有効であることを示しました。今後の展望としては、より大規模なモデルや、商用APIとして提供されるモデルへの適用が考えられます。また、複数の調整パラメータを用いた、より柔軟な制御方法への展開も期待されます。

さらに、文章生成のようなより複雑なタスクや、複数の属性が重なり合う状況(例: 特定の人種かつ特定の性別の高齢者)における公平性の評価も重要な課題として挙げられています。

ZOZO研究所は、本研究で得られた知見をもとに、ファッションECにおけるAIの実装において、効率性と公平性を両立させるための実践的なツールの開発を目指していくとしています。これにより、顧客一人ひとりに合わせたパーソナライズされたサービスを提供しつつも、特定の層に不利益が生じないよう、公正なAIの利用が推進されることでしょう。

論文の概要

  • タイトル:「On Fairness of Task Arithmetic: The Role of Task Vectors」

  • 著者:スタンフォード大学/Laura Gomezjurado Gonzalez氏、東京科学大学/吉田 晃太朗氏、モントリオール大学・Mila/長沼 大樹氏、京都大学/堀江 孝文氏、独立研究者/楢木 悠士氏、株式会社ZOZO NEXT/清水 良太郎(共同筆頭著者)

  • 論文URLhttps://openreview.net/forum?id=B19MBDrvlM

まとめ:AI研究の最前線を切り拓くZOZO研究所

ZOZO研究所が「ICLR 2026」に採択された2本の論文は、AI技術の実用化における重要な課題に取り組む画期的な研究成果です。

「DisTaC」は、AIモデルの統合をより安定させ、現実世界でのAI導入を加速させる可能性を秘めています。一方、「タスク演算」に関する研究は、大規模AIモデルの公平性を確保し、社会にとってより倫理的で信頼性の高いAIシステムの構築に貢献するものです。

これらの研究は、ファッションECという具体的な応用分野を持つZOZO研究所が、単なるビジネス応用にとどまらず、機械学習の基盤技術そのものを進化させようとしている姿勢を示しています。AIが社会に深く浸透していく中で、その性能だけでなく、どのように利用され、どのような影響を与えるかという「信頼性」や「公平性」の側面がますます重要になってきます。ZOZO研究所の今後の研究が、ファッション分野のみならず、より広い産業におけるAIの発展にどのように貢献していくのか、その動向に注目が集まります。

ZOZO研究所の研究活動は、今後もAI技術の最前線を切り拓き、より良い未来を創造する上で重要な役割を担っていくことでしょう。

タイトルとURLをコピーしました