スマートフォンの位置情報、防犯カメラの映像、そして生成AIによる高度な分析。私たちの暮らしは、知らないうちに大量のデータに囲まれ、読み取られる時代に入っている。便利さの裏で、どこまで個人は特定され、行動や嗜好、さらには未来までも推測されてしまうのか。北九州市立大学法学部の 水野 陽一 准教授 は、位置情報データや防犯カメラ、生成AIがもたらすリスクを法の視点から整理し、「安心」と「プライバシー」を両立させるために必要なルールの在り方を問い直す。AI時代の監視と自由、その境界線を考えるためのヒントを聞いた。

北九州市立大学 法学部 准教授
水野 陽一 / Yoichi Mizuno
【プロフィール/略歴】
2006年広島大学法学部卒業。
2010年ドイツ学術交流会奨学生としてドイツ・テュービンゲン大学留学。
2012年日本学術振興会特別研究員、ドイツ・ミュンヘン大学留学。
2014年広島大学大学院社会科学研究科博士課程後期単位取得退学。博士(法学)。現在、北九州市立大学法学部准教授
位置情報の収集とAIによる分析でできること
FXインフォメーション合同会社(以下FXI):スマホの位置情報や行動の記録をAIで分析すると、どんなことまで推測できてしまうのでしょうか?
水野氏:スマートフォンなどに搭載されるGPSによって個人の位置情報が収集され、それをAIによって分析させることでさまざまな便利さを享受できる時代になりました。例えば、地図アプリを使って初めての場所でも迷わずに目的地に到着できることなどはその典型ですね。
ただ、この便利さの裏には怖さもあり、スマホの位置情報から利用者のさまざまな側面、知られたくないことも含めあらわになってしまう危険性が潜んでいるとしたら。
スマホの位置情報や行動の記録をAIで分析し推測できることとして以下のものがあります。
- 生活圏の特定(自宅・職場・学校): 滞在時間と頻度から、高確率で自宅と職場(または学校)が特定されます。
- 詳細な行動パターン: 平日・休日の移動、通勤経路、立ち寄る店舗、行動時間帯などを把握します。
- 潜在意識・好み・嗜好の分析: 「ユーザープロ」技術のように、訪問履歴(カフェ、ジム、書店など)から興味・関心、潜在意識までも明らかにする試みが行われています。
- 移動手段の推定: 徒歩、自動車、電車などの移動速度の違いをAIが判別します。
- 人流・動線解析: 特定の店舗や観光地において、どこから来て、どこへ去ったか、どのルートを移動したか(動線)を可視化します。
スマホ経由で地図アプリを使い自分の現在地を把握し目的地に連れて行ってくれるということは、GPSで自分の行動履歴を把握されることに繋がり、位置情報を連続して把握されAIの分析にかけられるということは、あなたがどんな生活を送りどんなものを好きかということを丸裸にできるということを意味するのです。
これは、位置情報の分析を通じて、実質的に個人を特定できることを意味するのですが、現在の個人情報保護法では位置情報そのものは個人情報ではなく個人関連情報とされ、位置情報の収集について必ずしも十分な法的規制がないことが問題です。
FXI:個人特定はどこまでできるのでしょうか。
水野氏:個人情報保護法は位置情報を個人関連情報として扱いますが、「連続的に蓄積される等して個人を識別できる場合」は「個人情報」に該当するとしました。これは何を意味するかということですが、スマートフォンなどを通じて位置情報が継続的に収集されAIによって分析されることを通じて、スマホの持ち主が特定できる場合などが想定されます。
スマホ搭載のGPSの精度は非常に高く、数メートルから数十メートルの精度で、24時間365日の行動が記録されます。誰がその携帯端末を持っているかを特定するのは技術的に容易です。
これにより、毎日特定の時間に戻る場所=自宅(主に夜間帯など)、向かう場所=職場(主に午前中など)、というパターンを解析し、住所、職業、目的地などが推定できます(特定のスマートフォンでは、便利機能として地図アプリと連携して渋滞状況、予想到着時間などを自動で通知してくれますよね)。これは、便利な機能ですがスマホ利用者の行動パターンが把握されていることを意味します。これとSNS上の発信(チェックイン投稿など)と組み合わせることで、名前や顔写真と結びつけられる(個人特定)リスクが増加します。
これらの機能が悪用、悪意ある第三者に知られると、ストーカー被害や、住所の特定に繋がる可能性があります。 実際にストーカー殺人に繋がった例もあり、便利さの裏にリスクが潜んでいる典型例といえます。
AIプロファイリングにより、位置情報の取得は個人特定、個人の職業、趣味嗜好など、その人の性質、性格までも推定できる時代になっています。さらに情報通信技術の発展とAIの進化は「将来の行動予測」をも可能にする段階へ進んできており、個人の生活のすべてはもちろん、未来予測までもが企業や第三者に把握されている可能性がある時代になっています。
AIの利用にはリスクがあることを前提としたリスクベースアプローチを用いたルール作りが求められます。
設置、利用目的の明確化が必要
FXI:防犯カメラが増える社会で、安心を上げつつプライバシーも守る“落としどころ”はありますか?
水野氏:まず「防犯カメラ」という用語ですが、本来この言葉が意味するのはこのカメラの設置目的は防犯のためものであり、記録された映像も防犯目的でのみ利用しますよということを意味します(意味しなければならないともいえます。)日本での街頭設置カメラの運用は、設置目的からして曖昧で本来であれば利用目的を明確にしておく必要があります。例えば、「防犯カメラ」によって取得された個人の顔写真、姿態を含む映像が、マーケティング目的などの商業目的で利用されることは少なくありません。
また、カメラが設置される場所に、カメラが設置されていることはもちろん、どんな目的で映像が使われるのか、撮影された映像の利用に関する問い合わせ先などが何らかの方法で明示されることが求められます。ただ、このような表示がされているところをあまり見ることはなく、なんとなく「防犯カメラ」が設置されていても、それに対してあまり意識を払うことのない人の方が多いように思います。
FXI:「防犯カメラ」で撮影されることで私たちに何が起こりうるのでしょうか。
水野氏:「防犯カメラ」を気にしない人の心理として、自分にはやましいところがないのだから、撮られても問題ないだろう、自分にはあまり関係ないという感覚があるように思います。この自分とは無関係だという感覚が、自分のプライバシーに対して思わぬ危険を生じさせるのです。日本には、現在500万台以上の防犯カメラが設置されており、さまざまな場所で人の顔画像や姿態を含む映像が記録されています。
AIの普及していない時代であれば、これらの映像のチェックを人間が行うしかなく、何か事件や事故が起こった時しか記録映像が確認されることはなかったため、個人のプライバシーへの影響はそう深刻なものではありませんでした。
ただ、現在のAI技術を持ってすれば記録映像を容易かつ正確に分析することができるので、記録されている全ての映像データから個人の顔画像などを抽出すること、問題行動を検知することなどが可能です。
また、カメラに記録される個人をリアルタイムで把握し、個人特定、追跡等を行うことも難しくありません。自分は何もしていないと思っていても、防犯カメラに一旦顔画像や姿態が記録されてしまえば、この生体認証データをもとにあなたの行動が把握され、AIによって監視されていない保証はどこにもありません。
「防犯カメラ」の運用について、国がプライバシーに配慮するため、民間事業者向けに一定のガイドラインを設けてはいますが、あまり強制力の強いルールではなく事業者の自主規制に委ねる部分が多いことが問題視されています。
また、「防犯カメラ」の警察利用について、警察の捜査をコントロールする刑事訴訟法にルールが設けられておらず、警察がいつ、どんな方法で私たちを撮影しAIによって監視しているか知ることができない実態があります。また、民間事業者の設置したカメラ映像を警察が収集する際のルールも明確化されておらず、事業者の任意提出を求めることができることになっています。もちろん犯罪捜査のために防犯カメラ映像の利用は重要ですが、記録された映像には犯罪とは関係のない多くの個人の顔画像、姿態(生体認証データ)が記録されており、何もしていない一般人のデータ保護をいかに行うのかという問題が生じます。
FXI:落とし所は何でしょうか?
水野氏:一般人のプライバシーを守るため防犯カメラを撤去するということには、誰も賛成しないでしょう。ただ、これまで説明したようなリスクを知った上で、防犯カメラ設置、利用のルール作り、事後的な監視体制の構築が必要となります。
防犯カメラ映像に映り込んだ一般人の生体認証データから、不必要な個人特定が行われないために、不特定多数人を対象とする顔識別を行わないようにすること、関係のない人の顔画像などは即刻廃棄することを徹底すること、警察利用の場合でも裁判所などの第三者による審査を行うことなどのルール作りが求められます。
そして、これらプライバシーに配慮する仕組みがきちんと機能しているかを監視、監督する体制、ルールが絵に描いた餅になっていないかを確認できる枠組みの構築が必要となります。個人情報保護委員会がその役割を担っていることになっていますが、強制的な立ち入り権限等が認められておらず、機能強化が求められるでしょう。
規制の基本的な考え方:リスクベースアプローチ
FXI:データを集める前に、最低限決めておくべきルールは何ですか?
水野氏:これまで話してきたように、個人データの収集、AIによる処理に際してデータ収集の目的の明確化、データの保存期間の設定、目的外利用禁止が最低限求められます。
この他にも、AIの利用目的をカテゴライズし、個人に許されない差別や生命の危険などをもたらす危険のあるAI利用は禁止、プライバシーなどに大きな影響のあるAI利用には厳しい規制を設けるなどの措置が求められます。
個人のプライバシー保護を重視するEUは、AI規制法を策定するにあたってAIにはリスクがあることを前提としたリスクベースアプローチを採用しました。
これは、AIには人間の生活を便利にする可能性がある一方で、使い方を誤れば人間を不幸にするリスクが存在しており、AI利用に際しリスク回避、防止を第一に考えるとするものです。以下のように分類されます。
EUによるリスクに応じたAI利用の分類と規制
・利用禁止類型 (Unacceptable Risk) – 利用禁止
内容: 人権侵害や個人の自由を阻害するAIを禁止。
例: 潜在意識を操作する行動修正、政府による社会的スコアリング、公共の場でのリアルタイムの遠隔生体認証(警察などによる例外あり)。
・高リスク AI(High Risk) – 厳格な規制
内容: 人々の健康、安全、基本的人権に大きな影響を与えるAI。市場投入前に適合性評価、透明性、データ品質の管理、リスク管理体制、人間による監視が義務付けられる。
例: 医療機器、教育・職業訓練の評価、就職・昇進の採用選考、重要インフラ(水・ガス・電気など)の管理、法執行、移民・国境管理。
・限定的なリスク (Limited Risk) – 透明性確保
内容: 利用者がAIとやり取りしていることを認識させるための通知義務。
例: チャットボット(AIであることを明示)、ディープフェイク(生成された画像/音声であることを明示)、感情認識システム。
・最小リスク (Minimal Risk) – 規制なし
内容: 上記のいずれにも該当しない安全なAI。行動規範(コード・オブ・コンダクト)が推奨される。
例: AI搭載のゲーム、スパムフィルター。
ルールメーキングの必要性と方向性
日本でここまで厳格なルールを設けるかは今後の議論次第ですが、少なくともこれらの分類を参考に、AI利用にはリスクがあることを認識し、そのリスク回避に十分に配慮した上で、人間のためになるAI利用方法、ルールメイキングが求められることになるでしょう。その際にプライバシーを重視するのか、AIの利活用に重きを置くのかが問われることになります。
記録さえた音声、画像、映像の証拠としての価値と改ざんの可能性
FXI:生成AIの時代に、映像や音声が「証拠」として信じにくくなる不安があります。裁判はどう備えるべきでしょうか?
水野氏:現状、生成AIの利用に裁判制度は必ずしも十分に対応できていません。
これまで人の証言は重要な証拠とされる一方で、認識・認知→記憶→証言というプロセスには誤りが生じやすいと考えられてきました。
具体的には、半年前の事件・事故を目撃した人がいても、時間経過とともに記憶が曖昧となりますし、そもそも事件・事故現場が夜で十分な照明がない場所であるなどの事情があれば目撃したとされる人、物そのものが存在しなかったという可能性すらあります。
そんな曖昧な人間の証言ですが、「殺人を見た」という証言は、殺人事件を直接立証する証拠になり得るわけです。
このような、曖昧な人間の感覚機能や記憶を補完ないしは代替するものとして音声や映像、画像が記録された写真や音声、映像テープなどの証拠価値が高まってきた歴史があります。
記録された映像や音声の真偽は、フィルムや磁気テープなど比較的改ざんを行うことが難しい記録媒体が主役だった時代にはさほど大きな問題として考えられてきませんでした。ただ、記録媒体がアナログからデジタルになり、パソコン等が飛躍的発展を遂げたあたりから、記録されたデータの改ざんが取り沙汰されるようになってきました。
データの真偽確認の必要性と記録・管理者に対する尋問
ただ、このような改ざんの可能性が言われる中でも、現在に至るまで裁判所における音声や画像、映像といったデータの信用性、証拠としての価値は高く見積もられたままで、これは生成AIが飛躍的発展を遂げた現在においても変わっていないように思われます。
ディープフェイクの問題は、選挙結果など民主主義の根幹に関わる部分にも大きな影響を与えていると言われていますが、社会における正義の一翼を担う司法、裁判所の判断にも著しい悪影響を与える危険性があります。
これを防止するため偽データを検出するAIを導入するなどの方法も考えられますが、証拠となるデータの記録者、管理者などを法廷に召喚して、データの真偽を尋問することが一番有効かつ必要な方法となるでしょう。
そこで裁判当事者からの尋問に加え、裁判官による検証を行い、少しでも疑義が生じた場合には証拠として用いないなどの措置が必要となります。裁判は人間同士の紛争を解決する最後の手段なのであり、そこでの決定も最後は人間の手に委ねられてこそ、AI時代においても裁判制度の意義が守られることになるでしょう。
生成AIを用いた判決文の作成
最後に、証拠としてだけではなく裁判所の判断、つまり判決文が生成AIによって作成されてしまった例を紹介しておきます。
裁判官が判決文の草案を生成AIに作成させ、その際生成された文章の中に実際には存在しない判例、条文が引用されていることに気づかず、そのまま判決文として用いられたという例がアメリカで複数確認されています。
一般的な利用方法としても、生成AIの出力結果の真偽を確認することが当然のこととして求められるわけですが、裁判という人の人生を大きく左右する場でファクトチェックが行われないという裁判制度の根幹を揺るがす事態を生じさせていましました。
日本では、まだこのような例は報告されていませんが、裁判官の負う業務量を考えると生成AIが判決文作成の際に用いられていると考える方が自然かもしれません。
これに関する裁判所の立場は明らかではありませんが、これが許される場合でも生成された文章のファクトチェックが大前提になること、判決の結論とその根幹を説明する理由をAIに作成させることはあってはならないことだと言えるでしょう。AIの判断はあくまでも参考例にとどめ、重要部分の最終決定は人間が行う、これは裁判にかかわらず人間中心のAI利用の基本的な考え方です。
コメント