【障害福祉×AI】個別支援計画にAIを使うのはダメ?現場を守る3つのシナリオとシャドーAI対策

障害福祉の現場では、慢性的な人手不足と膨大な書類業務により、スタッフの皆様が疲弊してしまうケースが少なくありません。

 

子どもたちがすくすくと育つ環境をつくるためには、まず現場で働く大人に「こころの余裕」が必要です。その解決策としてAIの導入が注目されていますが、個人情報漏洩への不安から導入に踏み切れない経営者様も多いのではないでしょうか。

 

障害福祉におけるAI活用は、使えるか、使えないかで判断するのではなく、どのようなAIを、どう使うかという3つのシナリオに分解して考えることが重要です。

 

この記事では、法的リスクを回避しながら個別支援計画の作成や記録業務を効率化し、スタッフが安心して働ける環境づくりに向けた具体策をお伝えします。

 

無料のAIツールは障害福祉で危険なのか?

ロボカット

障害福祉領域においてAIを活用する際、最も注意すべきなのが情報の取り扱いです。まずは、現場に潜む法的な落とし穴の仕組みを理解しましょう。

 

無料AIと要配慮個人情報の壁

無料版のChatGPTなどの生成AIは、入力した内容を次世代AIの学習データとして利用する仕組みを持っています。

 

障害福祉で扱う利用者様の障害特性や生育歴などは、個人情報保護法における要配慮個人情報にあたります。これを無料AIに入力することは、AI開発企業へのデータ提供とみなされる可能性があり大変危険です。

 

名前を伏せても、年齢や特性などの組み合わせで個人が特定できてしまうため、匿名化のつもりでも法的な解決にはなりません。

 

現場の責任感から生まれるシャドーAI

今、最も注意すべきなのがシャドーAIと呼ばれる状態です。これは、事業所が許可していないにもかかわらず、スタッフが個人のスマートフォン等で無料AIを使って業務を行っている状況を指します。

 

早く良質な計画書を作りたい、残業を減らしたいというスタッフの真面目な責任感から起きてしまうのが特徴です。

 

しかし、組織の管理が届かないAI利用は事業所にとって大きなリスクとなります。

 

これを防ぐためには、ただ禁止するだけでなく、会社として安全な代替手段を用意してあげることが不可欠です。

 

現場を安全に回すための3つのAIシナリオ

ロボットAI活用

では、どのようにAIを活用すればよいのでしょうか。医療AI領域の枠組みを障害福祉に転用した、以下の3つのシナリオで整理すると、取るべき方針が明確になります。

シナリオA:個人端末でのシャドーAI型、最も危険なパターン

  • 仕組み:スタッフが個人判断で、無料のChatGPTやGeminiに利用者情報を入力する。

  • リスク:前述の通り、要配慮個人情報の第三者提供にあたる可能性が高く、事業所の管理下にないため情報漏洩時の追跡も不可能です。

  • 結論:即時かつ厳格に禁止すべきです。

シナリオB:記録ソフト統合やセキュア環境型、推奨かつ今すぐ可能

  • 仕組み:事業所として法人契約を結んだ、データが学習に利用されないオプトアウト環境のAIを利用します。主に以下の2つの選択肢があります。

Google Workspace等の法人向けクラウド環境

法人向けのGemini for Google Workspaceなどは、規約により顧客データはAIモデルの学習に利用されず、第三者とも共有されないことが明記されています。厚労省のガイドラインに照らしても、契約によって学習利用が担保されていれば安全性が高いとされています。

 

障害福祉特化の記録ソフト内蔵AI

ほすぴタッチなどの既存の業務システムに組み込まれたAI機能です。業務委託契約の範囲内でデータが処理されるため、ガバナンスの観点から最もクリーンです。

 

重要な注意点

Google Workspaceの固有利用規約には、AIを医療助言や診断などの臨床目的に使用してはならないという条項があります。しかし、障害福祉における個別支援計画の文章整形やモニタリングの記録作成は非臨床業務に該当するため、利用可能と考えられます。ただし、てんかん発作への医学的な対処法をAIに指示させるといった医療行為に近い使い方は厳禁です。

 

シナリオC:音声AIによる自動構造化型、近未来の準備段階

  • 仕組み:面談やケース会議の音声をAIが聞き取り、自動で要約や構造化を行って記録ソフトに流し込む仕組みです。

  • ビジネス価値:面談後に思い出しながら入力する作業をゼロにできるため、劇的な投資対効果が見込めます。

  • 現状とリスク:オンプレミスや閉域網を利用した実証実験など、医療機関で先行していますが、障害福祉に特化したセキュアなソリューションはまだ発展途上です。汎用の音声認識APIに不用意に録音データを流すとシナリオBと同じリスクを負うため、現時点では導入準備としてベンダーの動向を注視するのが正しいスタンスです。

明日からできる ― AI導入3ステップのアクションプラン

作業する女性

AIの活用は、「禁止」するだけでは現場の不満を生むだけです。安全な代替手段を用意することこそが、管理者の最も重要なミッションです。ここからは、明日から実行できる3ステップをご提示します。

 

ステップ1:シャドーAIの実態調査と暫定ルールの策定(目安:1週間以内)

まずは現場の実態把握から始めます。スタッフへ「業務で無料AIを使っているか」を問う匿名アンケートを実施してください。

その上で、

  • 無料AIへの利用者情報の入力は禁止する
  • 判断に迷ったら管理者に相談する

上記のような暫定ルールを文書化し、周知徹底します。

 

ステップ2:安全な環境(シナリオA)の整備判断(目安:1ヶ月以内)

既にGoogle Workspace等の法人プランを導入済みであれば、AI機能の追加アップグレードを検討します。

 

そうでない場合は、現在導入している記録ソフトの会社に対して、「データが学習に利用されないAI機能の搭載予定」について問い合わせを行い、導入ツールを選定していきます。

 

ステップ3:非臨床業務に限定したプロンプト・指示書の共有(運用開始後)

個別支援計画の文体統一、保護者向けお便りの下書きなど、個人情報リスクが低く、かつ非臨床業務に該当する具体的な活用例を事業所内で共有し、属人化を防ぎます。

 

「誰が使っても一定品質で安全に使える状態」を作ることが、定着の鍵です。

 

まとめ

本記事で解説した重要ポイントを振り返ります。

  • 使えると使っていいは違う:無料AIは便利ですが、要配慮個人情報を含む障害福祉業務においては、原則として使用すべきではありません。

  • 最大のリスクはシャドーAI:悪意のないスタッフによる個人のスマホからのAI利用が、事業所最大のリスクとなっています。

  • 3つのシナリオで管理する:危険なシナリオBを禁止し、データが学習されない法人向け環境や専用ソフトといったシナリオAを組織として公式に提供することが不可欠です。

  • 非臨床業務での活用:個別支援計画の作成補助などは非臨床業務であり、適切な環境下であればAIによる大幅な効率化が可能です。

 

Next Action

まずは明日、自事業所のスタッフに対してシャドーAIの実態調査を行う匿名アンケートを実施してください。現場のリアルな声を知ることが、安全で効果的なAIトランスフォーメーションの第一歩となります。

 

株式会社アスカゼでは、障害福祉業界におけるITおよびAIの安全な活用を引き続きサポートしてまいりますので、お気軽にお問い合わせ下さい。

 

 

RECOMMEND

-AI, 記事・コラム
-,