EU、新国境検査システムにAI嘘発見器を組み込む可能性

| 6月 21, 2024
EU、新国境検査システムにAI嘘発見器を組み込む可能性

イギリス人旅行者は、人工知能(AI)嘘発見器システムという、一風変わった国境管理官から激しい尋問を受ける可能性がある。

欧州連合(EU)は、国境警備の一環としてAIの活用を計画していると報じられている。

先進的なAIソフトウェアは、英国からの到着者を審査する際に、表情、ボディランゲージ、その他の行動信号を分析する。

すべての空港やフェリーターミナルでの国境検査で実施される可能性がある。

メール』紙によると、ハイテクAI嘘発見器はEUの新しい国境管理措置の一部となる。

これらは出入国システム(EES)と欧州渡航情報・認証システム(ETIAS)である。

EESは2024年10月6日に、ETIASは2025年に発効する。

どちらの旅行プログラムも、シェンゲン協定加盟国に入国するEU加盟国以外の旅行者に、バイオグラフィックおよびバイオメトリックデータの提出を義務付けている。

AI嘘発見器の仕組み

報告書によると、旅行者はEUに行く前に、コンピューター・アニメーションのアバターとのオンライン・インタビューを終えなければならないかもしれない。

この面接では、旅行者は旅行の目的やその他の個人情報を尋ねられる。

このAIシステムは、顔の表情、ボディーランゲージ、目の動きを分析し、インタビュー中の真実性を判断する。

ソフトウェアが疑わしい行動や欺瞞的な行動の兆候を検出した場合、その旅行者に人間の入国審査官による追加審査のフラグを立てることができる。

EUはすでに、コードネーム「iBorderCtrl」と「Trespass」と呼ばれる試験的プログラムで、同様のAI嘘発見技術をテストしている。

iBorderCtrlはEUが資金提供する450万ユーロ(510万ドル)のプロジェクトで、2016年から2019年にかけてギリシャ、ハンガリー、ラトビアでテストされる。

マンチェスター・メトロポリタン大学の科学者たちがこの技術を開発し、彼らの会社であるサイレント・トーカー社が商業的に販売している。

TRESPASSコンソーシアムは2021年11月まで、このソフトウェアを試験的に使用し、同じ名前の別の嘘発見器ソフトウェアをテストした。

この実験では、アニメーションの国境警備隊員が参加者に質問する際の参加者の身体的反応を、実験システムがモニターした。

中には、セキュリティ上のリスクがあるかどうかを判断するために、人々のソーシャルメディアアカウントをスキャンした裁判もあった。

しかし、このような審査にソーシャルメディアのコンテンツを使用することは、公民権擁護団体から言論の自由の侵害を懸念する声が上がっている。

EU非加盟国のための新しいEU入国規則

AIによる嘘発見器検査の可能性は、EUが入国規則の厳格化を実施する準備を進めていることに起因する。

新たに導入される2つの国境検査システムは、欧州を訪問する英国市民とEU加盟国以外の国民に対する監視を強化する。

EESは、EU圏外からの旅行者全員のバイオメトリックデータを要求し、指紋と顔のスキャンをEUのデータベースに保存する。

これは、シェンゲン協定加盟国以外の旅行者の出入国を記録するために使用される。

一方、ETIASは米国(US)のビザ免除プログラムや英国の電子渡航認証(ETA)に似ている。

非ビザ国籍者はシェンゲン協定加盟国への訪問前にETIASを取得しなければならない。

ETIASを取得するためには、申請者はオンラインで経歴や旅行の詳細に関する質問に答えなければならない。

AIの嘘発見器ソフトウェアをオンライン申請プロセスに組み込むことで、旅行者が必要な情報を提供する際に仮想的に尋問することができる。

AI嘘発見器の倫理的懸念

人工知能を使って人間の行動の嘘を見抜くことには、多くの批判や懐疑的な見方がある。

EUの人工知能法は、AIが安全かつ公正に使用されることを保証するためのものである。

目的は、人々の権利とプライバシーを守りつつ、有用なAI技術の発展を可能にすることだ。

AIシステムはリスクレベルに分けられ、感情を認識するようなリスクの高いものもある。

それでも、BiometricUpdate.comのレポートによれば、EUのAI規制はまだ法執行や移民管理での利用を認めていると批判的な意見もある。

一部の専門家は、AI嘘発見器を不当な差別につながる信頼性の低い「疑似科学」として否定している。

ドイツの欧州議会議員であるパトリック・ブライヤーは、訓練を受けた人間の専門家でさえ、表情やボディランゲージだけで嘘を確実に見抜くことはできないと主張した。

彼は、AI嘘発見器が障害や不安障害を持つ人々を不当に標的にする可能性があると警告した。

また、ボディーランゲージに対する異なる文化的解釈を差別することにもなりかねない。

また、このようなAIシステムは、訓練されたデータに基づいて特定の民族や国籍に対する偏見を示す可能性も懸念されている。

多くの批評家は、侵略的な監視技術の非倫理的な行き過ぎだと見ている。

EU当局は、国境警備を強化し、潜在的な脅威を特定するために必要な試験だと擁護している。