
ラクタノ AI編集部
AIを活用して毎日最新情報をお届けしています

概要
総務省と経済産業省は、今年3月末に「AI事業者ガイドライン(第1.2版)」を公開する予定です。一言で言えば、これは「企業が安全にAIを活用するための公式なルールブック」の最新版です。
今回の改定では、自律的に業務をこなす「AIエージェント」や、物理的な動きを伴うロボットなどの「フィジカルAI」といった新しい技術が初めて定義に追加されました。
そして、AIを業務に導入している中小企業にとって最も重要なポイントが、「Human-in-the-Loop(ヒューマン・イン・ザ・ループ)」という考え方が明記されたことです。これは、「AIが外部に影響を与える操作をする前に、必ず人間の判断を挟む仕組み」のこと。AI任せにするのではなく、最終的な責任とチェックは人間が行うという実務上の重要な指針となります。
背景
なぜ今、このようなガイドラインの改定が行われているのでしょうか。
現在、ChatGPTをはじめとする生成AIや、業務を自動化するAIツールが急速に普及し、多くの中小企業でも日常的に使われるようになりました。業務効率化の強力な武器となる一方で、「AIが間違った情報を顧客に送ってしまった」「顧客の個人情報を学習データとして流出させてしまった」といったリスクも現実のものとなっています。
日本政府は、こうしたリスクから企業と消費者を守り、社会全体で安心してAIを活用できるようルール整備を進めています。昨年から「AI基本法案(仮称)」の議論が進められるなど、AI政策は法規制を視野に入れた新しいステージへと移行しつつあります。
ただし、いきなり厳しい法律で縛ってしまうと、中小企業のAI活用の足かせになってしまいます。そこで、まずは「ガイドライン」という形で、企業が自主的に守るべき基準(ソフトロー)を示し、安全なAI導入を後押ししようというのが今回の背景です。
ポイント解説
今回の「AI事業者ガイドライン」改定において、中小企業経営者が押さえておくべきポイントをわかりやすく噛み砕いて解説します。
1. 「AIを使っているすべての企業」が対象になる
「うちはAIを開発しているIT企業じゃないから関係ない」と思われるかもしれません。しかし、このガイドラインの最大の特徴は、「AI利用事業者」としての適用範囲の広さです。
自社でAIを開発していなくても、外部のAIツールや生成AIを業務で利用していれば、資本金や従業員数に関わらずすべての企業が対象となります。つまり、業務効率化のためにAIを使っている中小企業は、等しく「適正な利用」と「リスク管理」の責任を求められるということです。
2. 「Human-in-the-Loop(人間の介在)」が必須に
今回の改定で特に強調されているのが、先にも触れた「Human-in-the-Loop(HITL)」です。直訳すると「ループ(処理の輪)の中に人間がいること」を意味します。
AIは非常に賢いですが、時として「ハルシネーション(もっともらしい嘘)」をつくことがあります。そのため、AIが作ったメールをそのまま顧客に自動送信したり、AIが作った契約書をそのまま締結したりするのではなく、「送信や決定の前に、必ず人間が内容を確認して承認する」というプロセスを組み込むことが強く推奨されています。
3. リスクベース・アプローチ(重要度の選別)
「すべてのAIの作業を人間がチェックしていたら、効率化の意味がないのでは?」と心配になるかもしれません。そこでガイドラインが推奨しているのが、業務の重要度に応じて対応を変える「リスクベース・アプローチ」です。
特に以下の3つの分野は「高リスク」と定義されています。
- 金銭が関わる業務(決済、見積もりなど)
- 個人情報を取り扱う業務(顧客対応、採用など)
- 法的権利に抵触する業務(契約書の作成、著作物の生成など)
こうした重大なトラブルにつながりやすい業務に限定して、重点的に人間のチェック体制を敷くことが現実的かつ効果的です。
企業への影響(中小企業が今すぐ取るべきアクション)
では、具体的に中小企業はどのような対応を進めればよいのでしょうか。以下の3つのステップで社内の体制を整えていきましょう。
① AI利用業務の棚卸しとリスク特定
まずは、社内で「誰が・どの業務で・どんなAIツールを使っているか」を把握しましょう。社員が個人の判断で無料のAIツールを使っているケース(シャドーAI)も考えられます。
その上で、先ほどの「高リスク業務(金銭・個人情報・法的権利に関わるもの)」でAIが使われていないかを特定し、優先的に対策を行う対象を絞り込みます。
② 承認プロセスのシステム化
AIの出力結果を直接外部へ公開・送信させない仕組みを作ります。
例えば、AIを使った顧客への自動返信システムを利用している場合、AIが作成した文章を一旦「下書き(Draft)」として保存する設定にします。そして、担当者が管理画面で内容を確認し、「承認(Approve)」ボタンを押して初めて送信されるように業務フローやシステムを変更します。
③ チェックリストによる確認の標準化
人間がチェックするといっても、担当者によって確認の基準がバラバラでは意味がありません。「クイック・チェックシート」を作成し、以下の3点に絞って確認を標準化しましょう。
今後の見通し
今回の新ガイドラインは今年3月末に公開が予定されています。その後、国会での法整備などの議論が進み、新しいルールが社会の「標準的なマナー・責任」として定着していくことになります。
実務レベルでの対応完了時期としては、ガイドライン公開から半年〜1年後となる今年9月から来年3月までをひとつのデッドライン(目標時期)として設定し、準備を進めることをおすすめします。公開を待ってから慌てるのではなく、今のうちから現行のガイドラインを参考に「プレ対応」を進めておくことが、スムーズな移行の鍵です。
また、政府は中小企業の安全なAI導入を積極的に支援しています。
今年の「IT導入補助金2026」では、AI導入時のセキュリティ対策を支援する枠が拡充されており、人間の確認プロセス(HITL)を組み込むためのシステム改修費用などが補助の対象となる見込みです。さらに、中小企業基盤整備機構による「DX専門家派遣事業」を活用すれば、専門家からAI導入の業務フロー見直しについて低コストでアドバイスを受けることも可能です。
AIは中小企業の人手不足解消や生産性向上に欠かせない強力なパートナーです。政府のガイドラインや支援制度を上手に活用しながら、安全で効果的なAI活用体制を社内に築いていきましょう。
情報元
- 経済産業省 【公式】
- 経産省 AI政策 【公式】
- 総務省 【公式】
- 総務省 情報通信政策 【公式】
- AI戦略会議 【公式】
