責任ある AI
倫理的で公平なAIを実現するには、人、プロセス、システム、データ、アルゴリズムに関する包括的なアプローチが必要です。インテルは、リスクを低減し、社会にとっての利益を最適化するためにAIを開発しています。
当社の見解
インテルは長年にわたり、テクノロジーの開発に関連する倫理的意味や人権の意義の重要性を認識しています。特に AI テクノロジーの開発にあたっては、倫理的意味や人権の意義を十分に認識しており、当社は自社製品の開発および展開において責任ある行動を徹底するため、AI テクノロジーの開発に関して最善の方法、指針、およびツールを考案することを目指し、継続的に取り組んでいます。
私たちのアプローチ
AI が確実に安全でサステナブル、かつ倫理的な方法で設計、構築、導入、使用されるようにするためには、AI のライフサイクル全体にわたって責任ある開発がイノベーションの基盤でなけれなばらないと考えています。AI が急速に進化し続けるなか、RAI への取り組みも同様に進化しています。
インテルのシニアフェロー兼インテルラボのインテリジェント・システム・リサーチ・ラボ担当ディレクターである Lama Nachman が、インテルの責任ある AI に対するアプローチの改善について語る
責任ある AI を構成する中心要素
インテルは、AI テクノロジーを責任ある方法で進化させることに全力で取り組んでいます。そのために当社は、開発のライフサイクル全体を通してあらゆる側面を網羅する非常に厳しいレビュープロセスを活用し、偏見をなくすために多様性に富んだ開発チームを編成して、考えられる AI の悪用を軽減するため業界のパートナーと連携を図っています。当社は、国際基準や業界のベスト・プラクティスに基づく業界をリードするプロセスを実施するため尽力しています。AI はこれまで大きな発展を遂げてきましたが、テクノロジーの進化に伴い、これから明らかになっていくことがまだ山ほどあります。当社は、ポジティブな変化を推進し、これまで以上にリスクを軽減するため、このテクノロジーを活用する方法を継続的に模索しています。また、責任ある AI ソリューションをコンピューターで扱いやすく効率的なソリューションへと発展させるため、自社のプラットフォームを進化させつつ、この分野で研究を進めるため、学界や業界のパートナーと協力して取り組みを続けています。
社内外のガバナンス
社内では、多分野にわたる諮問委員会が 7 つの原則 (人権の尊重、人による監督の実施、透明性と説明可能性の実現、セキュリティー・安全性・信頼性の向上、プライバシーに配慮した設計、公平性とインクルージョンの推進、環境保護) の観点から、さまざまな開発活動を検証しています。社外では、インテルの Global Human Rights Principles (人権に関する全社共通の指針) に従い、この指針を違反する方法でインテルの製品が使用されている疑いがあることを認識した場合、インテルの製品が人権を侵害する方法で使用されないと当社が十分に確信できるまで、インテルは当該乱用を軽減するため、最高で当該違反行為を行っている取引先との取引制限または取引停止を含む適切な処分を講じます。
研究とコラボレーション
当社は、プライバシー、セキュリティー、人間と AI の協働、メディアの信頼性、AI のサステナビリティ、説明可能性、透明性に関する研究を実施するため、世界中の学会のパートナーと協力しています。また、AI の意義についてさらに理解を深め、世界的な課題を解決することを目指し、情報の発表やコラボレーション、業界全体でのパートナーシップを先頭に立って推進する取り組みを続けています。
Coalition for Content Provenance and Authenticity (C2PA)、Partnership on AI、MLCommons® AI Safety Working Group、Business Roundtable on Human Rights and AI (要登録)、NIST U.S. AI Safety Institute Consortium といった団体やそのほかの多様な利害関係者によるイニシアチブとの連携、コラボレーションを重視しており、企業としてだけでなく業界全体として取り組んでいます。
また、Responsible Human-AI Systems (RESUMAIS) のためのインテル・センター・オブ・エクセレンスを設立しました。複数年にわたるこの取り組みには、ドイツ人工知能センター (DFKI)、FZI Research Center for Information Technology、ハノーファー大学、European Laboratory for Learning and Intelligent Systems (ELLIS) Alicante など、4 つの主要研究機関が参加し、倫理的かつユーザー中心の AI 開発を推進することを目指しています。
製品とソリューション
当社は、責任ある AI をコンピューターで扱いやすくするためのプラットフォームとソリューションを開発しています。当社は、責任ある AI の開発に伴う負担を軽減するソフトウェア・ツールを生み出し、プライバシー、セキュリティー、透明性を改善しつつ偏見を軽減することを目指し、さまざまなアルゴリズムを用いたアプローチを模索しています。このため、各アプローチの課題を理解し、適切に対処することを目的にエスノグラフィック・リサーチを実施しています。
インテル® Homomorphic Encryption Toolkit に関する詳細はこちら
インテル® Trust Authority に関する詳細はこちら
生成 AI に対するインテルのアプローチに関する詳細はこちら
インテル® Explainable AI Tools に関する詳細はこちら
包括的な AI
当社は、AI の開発と展開におけるエクイティ (公平性)、インクルージョン (包括性)、および文化的感受性の必要性を理解しています。だからこそ、これらのテクノロジーを扱うチームが多様性に富んだインクルーシブなチームであることを徹底するため全力を尽くしています。例えば、インテルは自社の Digital Readiness Program (デジタル人材育成に向けた取り組み) を通して、責任ある AI、AI の倫理的指針、責任ある AI ソリューションを開発するための倫理的方法についての認識を高めてもらうため、学生に働きかけています。AI テクノロジーの領域は、多様性に富んだ人々、観点、意見、体験に基づいて開発され、多様性に富んだ人々、観点、意見、体験に基づいた情報の提供が求められる領域です。だからこそ当社は、AI テクノロジーを誰もが使えるテクノロジーにする機会を提供しているコミュニティ・カレッジと積極的に連携を図っています。米国の高等教育制度において、これらのコミュニティ・カレッジは、経歴や専門分野の異なる幅広い生徒を魅了しています。当社は、AI のような新しいテクノロジーの影響を受けるあらゆる職業、あらゆる社会的地位にある人々に関わる新たな方法を継続的に模索しています。
「AI for Future Workforce」(AI 人材育成プログラム) に関する詳細はこちら
イニシアチブ
テクノロジーはこの地球上のあらゆる人の生活を豊かにすべきであると当社は考えています。AI は、世界規模の変化を生み、私たち人間に高性能ツールを提供し、責任あるインクルーシブでサステナブルな未来を実現できます。当社は、パンデミックや自然災害、世界中の公衆衛生といった世界規模の重要な課題に対処するため、AI の力を活用しています。人間の持つポテンシャルを拡大し、インクルージョンを強化し、障害のある人々のアクセシビリティーを強化するため、AI を用いた機能とソリューションを開発しています。
アクセシビリティーの強化
障害を持つ多くの人々にとって、自立生活と自主性は課題となる可能性があります。AI は、日常生活に存在する障壁に対して代替ソリューションを提供する製品を生み出すことで、障害を持つ多くの人々の生活を変えることに役立っています。
教育へのアクセスの拡大
インテルは、「AI for Youth」(青少年向け AI プログラム) や「AI for Future Workforce」(AI 人材育成プログラム) などのプログラムを活用して、学生をデジタル革命に備えさせるため、世界的な AI のスキルギャップに対応するための取り組みを行っています。
安全性の向上
自動運転車による運転の実現から児童労働搾取の軽減まで、AI テクノロジーはより安全な社会作りに役立っています。
環境のためのソリューションの創出
AI テクノロジーを活用することで、研究者は私たちが生活するこの世界の環境の仕組みについて理解を深め、より良い未来を築くためのソリューションを開発できます。