AIの急速な普及に伴い、世界各国ではAIの安全性や倫理を確保するためのルール整備が進んでいます。日本でも2024年、総務省と経済産業省が中心となり「AI事業者ガイドライン(第1.0版)」が公表されました。
この記事では、企業が知っておくべき「AI事業者ガイドライン」についてご紹介します。
生成AI時代に求められる「AIガバナンス」
ChatGPTをはじめとする生成AIの登場により、AIは急速に社会へ広がりを見せています。それは、企業や行政から個人に至るまで、さまざまな形で広がっています。そんな中で、企業の業務効率化、医療支援、教育など多くの分野で活用が進み、誤情報の拡散、著作権問題、差別的判断などのリスクが指摘をされています。
こうした背景から、世界各国ではAIの安全性や倫理を確保するためのルール整備が進んでいる。日本でも2024年、総務省と経済産業省が中心となり**「AI事業者ガイドライン(第1.0版)」が公表されました。

このガイドラインは、AIを開発・提供・利用する事業者が守るべき基本的な考え方や行動指針を示すものであり、日本におけるAIガバナンスの重要な枠組みとなっているため、AIを導入・活用する企業は必ず確認をすることが必要です。
【AI事業者ガイドラインとは】
AI事業者ガイドラインは、日本政府がAIの安全で信頼できる利用を促進するために策定した指針であり、
2024年4月に総務省と経済産業省が共同で公開し、AIに関わる事業者が自主的に取り組むべきルールとして整理されています。
以下の既存の文書を統合する形で作成されました。
総務省のAI開発ガイドライン(2017年)・AI利活用ガイドライン(2019年)と経済産業省のAI原則実践のためのガバナンスガイドライン(2022年)
これらを統合し、生成AIの普及など新しい状況に対応する形で整理されたのが、現在の「AI事業者ガイドライン」です。
参考:経済産業省「AI事業者ガイドライン」https://www.meti.go.jp/press/2024/04/20240419004/20240419004.html?utm_source=chatgpt.com
AI事業者の『3つの役割』と『企業に求められる具体的対応』
~『3つの役割』とは~
ガイドラインでは、AIに関わる事業者を次の3つに分類しています。
◎AI開発者
AIモデルやアルゴリズムを設計・開発する、AI研究機関・AIモデル開発企業・AIスタートアップなどのこと。
安全に配慮して開発を行い、開発後も品質の維持向上を行うことが求められます。
◎AI提供者
AIサービスやソフトウェアとして提供する、SaaS企業やAI API提供企業などで、利用者にサービスを提供する立場。
サービスを提供するうえでのバイアスやプライバシー侵害などに注視し、事象が発生した場合には適切な対処を行い、再発の防止をしながらサービスを向上させていくことが求められます。
◎AI利用者
AI提供者が提供したサービスを業務効率化などに活用するため、サービスを利用する企業などのこと。
提供者が提供する範囲で使用を行い、AIによって出力された情報をすべて鵜呑みにすることなく、企業内の複数の人によって検討したうえで情報を利用することが求められます。また、AIチャットボットなど顧客に対して利用を行う際には顧客のために問い合わせ窓口や相談窓口を設置して、AIにより出た回答を補う役目も行うことが必要です。
~『企業に求められる具体的対応』とは~
AI事業者ガイドラインは法規制ではなく、企業の自主的な取り組みを促す「法的拘束力はないが、守ることが望まい」とされる基準や指針のことです。行政機関が出すガイドラインや業界団体の自主ルール、国際機関が示す 原則・宣言、企業の 行動規範(コード・オブ・コンダクト)などと同じような位置づけです。
これらは法律ではないため、違反しても罰則はありません。しかし、社会的信用や業界の慣行に影響するため、実質的には強い力を持つことがあります。
そして、AI事業者ガイドラインにおいては実質的な指針として以下のような対応が求められています。

AI事業者は常に図のようなサイクルで、各々が開発・提供・利用しているAIに関わる事業が適切なものかを見守る必要があります。今後、AI活用が進むほど、こうしたAIガバナンス体制の整備は企業の重要な課題となってくることは間違いないため、今の段階からしっかりと自社のAI事業を運営するうえでの管理体制を構築していくことが大切です。
ガイドラインの基本理念と10の原則
AI事業者ガイドラインでは、AIを社会に実装するうえで重要となる基本理念と10の原則が示されています。
※以下、「AI事業者ガイドライン(第1.0版)」より引用
【AIによって目指すべき社会(3つの基本理念)】
・人間の尊厳が尊重される社会 (Dignity)
・多様な背景を持つ人々が多様な幸せを追求できる社会 (Diversity & Inclusion)
・持続可能な社会 (Sustainability)
【基本原則(10の原則)】
基本理念を実現するため、AIに関わる全主体(開発者、提供者、利用者)が共通して取り組むべき原則
・人間中心 (Human-Centric)ーAIの利用が人間の権利を侵害せず、人間の主体性を尊重する
・安全性 (Safety)ーAIシステムの不具合や悪用によって、生命、身体、財産に危害が及ばないようにする
・プライバシー (Privacy)ー個人のプライバシーやデータ主体が権利を侵害されないよう配慮
・公平性 (Fairness)ー差別や偏見(不当なバイアス)を助長せず、公平な結果をもたらす
・透明性 (Transparency)ーAIの判断プロセスや不確実性について、可能な範囲で透明性を確保
・説明責任 (Accountability)ーAIシステムに関わる主体が、その影響について責任を持つ
・適正なデータ利用 (Appropriate Data Use)ーデータ収集・学習・利用において、法的遵守と倫理的配慮
・セキュリティ (Security)ーサイバー攻撃などからAIシステムと関連データを保護
・教育・リテラシー (Education/LiteracyーAIに関する知識を向上させ、適切な利用を促進
・イノベーションの促進 (Promotion of Innovation)ー安全を確保しつつ、AIの発展と社会実装を阻害しない
このガイドラインは、「リスクの大きさに応じた対策」を強調しており、より高度なリスクを伴うAIに対しては、さらに厳格なガバナンスが求められます。内閣府は、「開発者・提供者・利用者それぞれが、自らの役割に応じてこれらの原則を具体的な実務に落とし込むことが求められる」としています。
まとめ
生成AIの普及によって、AIは企業活動に欠かせない基盤技術となりつつあります。一方で、誤用やリスクへの社会的な懸念も高まっており、日本ではこうした状況に対応するために「AI事業者ガイドライン」が策定されています。このガイドラインは、AIの開発者・提供者・利用者のすべてを対象とし、AIを安全かつ信頼性の高い形で活用するための指針を示すものです。
AIを安全に活用するためには、技術的な工夫だけでなく、倫理・透明性・社会的責任を踏まえた運用が欠かせません。企業にとってAIガバナンスは、今後ますます重要性を増すテーマであり、AI事業者ガイドラインはその実践に向けた重要な道しるべとなります。
もちろん、このガバナンスは企業だけに関わるものではありません。私たち一人ひとりがAIを生活の中で利用する機会が増える中で、AIの仕組みや限界を理解し、適切に使うための指針としても大きな役割を果たします。AIを便利な道具として活用しながら、プライバシーや情報の扱いに注意を払う姿勢は、今後ますます重要になっていくでしょう。


コメント