• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

Societal biases in vision and language applications

研究課題

研究課題/領域番号 22K12091
研究種目

基盤研究(C)

配分区分基金
応募区分一般
審査区分 小区分61010:知覚情報処理関連
研究機関大阪大学

研究代表者

GARCIA・DOCAMPO NOA  大阪大学, データビリティフロンティア機構, 特任助教(常勤) (80870005)

研究期間 (年度) 2022-04-01 – 2026-03-31
研究課題ステータス 交付 (2023年度)
配分額 *注記
4,290千円 (直接経費: 3,300千円、間接経費: 990千円)
2025年度: 650千円 (直接経費: 500千円、間接経費: 150千円)
2024年度: 520千円 (直接経費: 400千円、間接経費: 120千円)
2023年度: 780千円 (直接経費: 600千円、間接経費: 180千円)
2022年度: 2,340千円 (直接経費: 1,800千円、間接経費: 540千円)
キーワードcomputer vision / machine learning / vision and language / societal bias / fairness / artificial intelligence / benchmarking / bias in computer vision / image captioning / ethical ai / bias in machine learning
研究開始時の研究の概要

Artificial intelligence models are being used in the decision-making process of many daily-life applications, having a direct impact on people’s lives. Generally, it is assumed that AI-based decisions are fairer than human-based decisions, however, recent studies have shown the contrary: AI applications not only reproduce the inequalities of society but amplifies them. This project aims to analyze and find solutions to address bias in visual-linguistic models, with the aim of contributing towards making AI fairer.

研究実績の概要

In 2023, we have made substantial advancements on identifying societal biases in artificial intelligence models. Firstly, we have collected and annotated a dataset for studying societal biases in image and language models. Secondly, we proposed a bias mitigation method for image captioning. Lastly, we investigated misinformation in large language models (LLM) like ChatGPT, which largely affects topics related to women and healthcare.

現在までの達成度 (区分)
現在までの達成度 (区分)

2: おおむね順調に進展している

理由

According to the plan, the project has accomplished the goal of collecting a dataset for studying social bias in vision and language models. We have also proposed mitigation techniques.

今後の研究の推進方策

The next steps in the project are to study how bias is transferred from the pretraining datasets to the downstream tasks. We also plan to investigate bias in large generative models like Stable Diffusion.

報告書

(2件)
  • 2023 実施状況報告書
  • 2022 実施状況報告書
  • 研究成果

    (15件)

すべて 2023 2022 その他

すべて 国際共同研究 (1件) 学会発表 (10件) (うち国際学会 8件、 招待講演 2件) 図書 (1件) 備考 (3件)

  • [国際共同研究] Xiamen Key Laboratory of Women/Meetyou AI Lab/Southwest University of Finance(中国)

    • 関連する報告書
      2023 実施状況報告書
  • [学会発表] Uncurated Image-Text Datasets: Shedding Light on Demographic Bias2023

    • 著者名/発表者名
      Noa Garcia
    • 学会等名
      The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2023
    • 関連する報告書
      2023 実施状況報告書
    • 国際学会
  • [学会発表] Model-Agnostic Gender Debiased Image Captioning2023

    • 著者名/発表者名
      Yusuke Hirota
    • 学会等名
      The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2023
    • 関連する報告書
      2023 実施状況報告書
    • 国際学会
  • [学会発表] Text-to-Image Models in Art and Society2023

    • 著者名/発表者名
      Noa Garcia
    • 学会等名
      Rethinking the ethics of AI symposium
    • 関連する報告書
      2023 実施状況報告書
    • 国際学会
  • [学会発表] CARE-MI: Chinese Benchmark for Misinformation Evaluation in Maternity and Infant Care2023

    • 著者名/発表者名
      Tong Xiang
    • 学会等名
      2023 Conference on Neural Information Processing Systems
    • 関連する報告書
      2023 実施状況報告書
    • 国際学会
  • [学会発表] The elephant in the room: Societal biases in vision and language tasks2023

    • 著者名/発表者名
      Yusuke Hirota
    • 学会等名
      The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2023
    • 関連する報告書
      2023 実施状況報告書
    • 国際学会
  • [学会発表] Quantifying Societal Bias Amplification in Image Captioning2022

    • 著者名/発表者名
      Yusuke Hirota
    • 学会等名
      IEEE/CVF Computer Vision and Pattern Recognition 2022
    • 関連する報告書
      2022 実施状況報告書
    • 国際学会
  • [学会発表] Quantifying Societal Bias Amplification in Image Captioning2022

    • 著者名/発表者名
      Yusuke Hirota
    • 学会等名
      The 25th Meeting on Image Recognition and Understanding
    • 関連する報告書
      2022 実施状況報告書
    • 招待講演
  • [学会発表] Gender and Racial Bias in Visual Question Answering Datasets2022

    • 著者名/発表者名
      Yusuke Hirota
    • 学会等名
      ACM Conference on Fairness, Accountability, and Transparency 2022
    • 関連する報告書
      2022 実施状況報告書
    • 国際学会
  • [学会発表] Societal biases in vision and language2022

    • 著者名/発表者名
      Noa Garcia
    • 学会等名
      Czech Technical University in Prague
    • 関連する報告書
      2022 実施状況報告書
    • 国際学会 / 招待講演
  • [学会発表] Uncovering societal bias in modern artificial intelligence models2022

    • 著者名/発表者名
      Noa Garcia
    • 学会等名
      III ACE Japan Meeting
    • 関連する報告書
      2022 実施状況報告書
  • [図書] Societal Bias in Vision-and-Language Datasets and Models2023

    • 著者名/発表者名
      Yuta Nakashima, Yusuke Hirota, Yankun Wu, Noa Garcia
    • 総ページ数
      10
    • 出版者
      日本画像学会誌
    • 関連する報告書
      2023 実施状況報告書
  • [備考] PHASE: Demographic Annotations on the GCC Dataset

    • URL

      https://github.com/noagarcia/phase

    • 関連する報告書
      2023 実施状況報告書
  • [備考] CARE-MI: Chinese Benchmark for Misinformation

    • URL

      https://github.com/meetyou-ai-lab/care-mi

    • 関連する報告書
      2023 実施状況報告書
  • [備考] Model-Agnostic Gender Debiased Image Captioning

    • URL

      https://github.com/rebnej/LIBRA

    • 関連する報告書
      2023 実施状況報告書

URL: 

公開日: 2022-04-19   更新日: 2024-12-25  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi