このページの本文へ

生成AIで偽の求人広告が作られている!? 気をつけるポイントは?

2024年11月08日 09時00分更新

文● せきゅラボ編集部

  • この記事をはてなブックマークに追加
  • 本文印刷

“質の高いフェイク”が
大量に作成できてしまう

 テレビ番組やYouTubeに投稿された動画などで、“AI”が作成するコンテンツの話題が出てくることは日常的になった。人間が対応しているような自然な反応のチャットボット、文章を入力するとイラストや動画を生成してくれるサービスなどを利用したことがある人も多いはずだ。

 専門的な知識がなくとも、AIを使えばプロ並みのコンテンツを作成できる時代。ただ、悪意を持った人間にしてみれば、偽の画像や音声を作成することも容易になってきているともいえるだろう。

 たとえば、マカフィーはAI技術を使った「オンライン求人詐欺」に警鐘を鳴らしている(AI Enters the Mix as Online Job Scams Continue to Rise | McAfee Blog)。

 サイバー犯罪者が求人詐欺に生成AIを利用すると、どうなるのか。まず、架空の“それらしい”広告を量産できる。求人募集のページを作るのも時間はかからない。画像生成AIを使えば、リクルーターの顔写真とプロフィールもあっという間に作成できるだろう。さらに、リクルートメールの文章もAIで作成が可能だ。

 生成AIを悪用してしまえば、“質の高い”フェイクの画像やテキストを大量に作成できるようになる。サイバー犯罪者たちにとっては、効率よくターゲットをあざむけるコンテンツが作成しやすい時代が到来しているといえるかもしれない。

 サイバー犯罪の被害に遭わないようにするため、AI技術に関しても、我々は高いリテラシーを持ち続けることが必要になってくるだろう。

AIを悪用した求人詐欺の対策

 AIを悪用した求人詐欺は、日本でも増えてくるかもしれない。どのように対策するべきだろうか。

 まず、条件によらず、求人に関しては応募先をしっかり調べるべきだ。サイバー犯罪者は、有名企業の名前やそれと紛らわしい名前などをかたることも考えられるので、確認することが何よりも大切になる。

 個人情報を聞かれることもあるだろうが、早い段階で銀行口座を聞いてきた場合は要注意だ。サイバー犯罪としては、何よりも“儲け”がほしいはず。そういった場合に何らかの支払い(前払い)を求められたら、警戒しなくてはならない。

 個人情報を相手に伝える場合は、正当な会社で、合法的な仕事を受け入れたときのみ。メールやLINEなどのやり取りだけで渡すべきものではない。

 メールやチャットのみでしか対応を受け付けない場合も警戒すべきだが、これからはAIを悪用したリアルな音声での対応でこちらをあざむいてくることも考えられるので、その点は留意しておきたい。

 また、スマートフォンやPCに、信頼のおけるセキュリティ ソリューションをインストールしておくことは大切だ。悪意のある(閲覧者に危険をもたらす)サイトにアクセスしそうになった際に検知して警告を表示するような機能があれば、被害に遭う可能性を減らせるだろう。

 良きにつけ、悪しきにつけ、これからAIは我々の人生により深く入り込んでくることが予想される。今回は、McAfee Blogから「知っておくべき10の人工知能に関する業界用語」を紹介する。(せきゅラボ)

※以下はMcAfee Blogからの転載となります。

知っておくべき10の
人工知能に関する業界用語 :McAfee Blog

フィッシング詐欺

人工知能はこれまで、世界で最も優秀な科学者たちだけが携われるものであり、世界トップの研究所に隔離されていました。今では、AIはインターネット接続さえあれば誰でも利用できるようになりました。ChatGPT、Voice.ai、DALL-E などのツールは日常生活にAIを浸透させましたが、その機能や内部構造を説明するために使用される用語は、必ずしも一般的なものではありません。

ここでは、お好みのAIツールに関する話題や夜のニュース、あるいは社内のちょっとした雑談でよく耳にする 10 の用語を紹介します。このAI辞書を常備して、人気のある (場合によっては物議を醸す) この話題について常に情報を入手しましょう。

AI生成コンテンツ

AI が生成したコンテンツとは、人工知能を搭載したツールによって部分的または完全に作成された、文章、音声、映像メディアを指します。 誰かが AI を使って何かを作ったとしても、それが自動的に不正や無責任な手抜きをしたということにはなりません。AI は、概要を作成したり、発想のヒントをまとめたり、問題の新しい見方を模索したりする際に、最適なスタート地点となり得ます。

AIのハルシネーション

AIが答えられないような質問をした場合、AIはその答えを知らないことを認めないことがあります。そこで、答えを示さない代わりに、AIはあなたが聞きたいと思うような答えを作り上げます。この作り上げた答えは、AIのハルシネーションとして知られています。

ニューヨークで、ある弁護士がChatGPTを使って準備書面を書いたところ、重大なAIのハルシネーションが発生したという実例があります。その準備書面は一見完璧で、出典を引用しているように見えましたが、出典はどれも存在しないことが判明しました。すべてはAIの「想像」だったのです。

ブラック ボックス

ブラック ボックスという言葉を理解するには、AIを箱の中に収められた歯車、滑車、ベルト コンベアのシステムと想像してください。透明のボックスでは、入力がどのように最終製品に変換されるかを見ることができます。一方、一部のAIはブラック ボックスと呼ばれます。つまり、AIがどのようにして結論に至ったのかがわからないということです。AIは推論プロセスを完全に隠します。AIの作業をダブルチェックしたい場合、ブラック ボックスは問題になる可能性があります。

ディープフェイク

ディープフェイクとは、写真、ビデオ、音声クリップを操作して、実際には起こっていない出来事を描写することです。ソーシャル メディアの面白いコントやバイラル投稿によく使われ、悪意のある集団は、フェイク ニュースの拡散や詐欺にもディープフェイクを利用しています。

例えば、政治家を見苦しいポーズや写真の背景に挿入するなどがあります。ディープフェイクは笑いを取ることを意図している場合もありますが、意見の相違や被写体の評判を落とすような噂を巻き起こすことを意図している場合もあります。ディープフェイク画像を見破るコツのひとつは、背景にいる人物の手や顔を見ることです。ディープフェイクは指を増やしたり減らしたり、表情を歪めたりすることがよくあります。 ディープフェイクとされるAI支援による音声なりすましも信憑性が高まっています。マカフィーの「Beware the Artificial Imposter」レポートによると、全世界の回答者の25%が、自分自身か知り合いに音声詐欺が起こったと回答しています。音声詐欺のターゲットにされた人の77%が、結果として金銭的な損失を被りました。

ディープ ラーニング

AIの思考プロセスが人間の脳に近ければ近いほど、AIの精度は高くなるでしょう。ディープ ラーニングは、AIが人間のように推論し、情報を思い出すように訓練することで、マシンがパターンを識別し、予測を立てることを意味します。

説明可能なAI

説明可能なAI(ホワイト ボックス)は、ブラック ボックスAIの対極にあります。説明可能なAIモデルは、常にその作業と結論に至った経緯を示します。説明可能なAIは、答えに至った内容を再確認できるため、最終的なアウトプットに対する自信を高めてくれます。

生成AI

生成AIは、ChatGPT、Bard、Craiyonなど、現在主流となっているAIツールの多くを支えている人工知能の一種です。スポンジのように、生成AIは膨大な量のデータを吸収し、それを呼び出してすべての答えを導き出します。

機械学習

AIに学習させ、継続的に改善させるため、機械学習はAIにとって不可欠です。明示的な指示がなくても、AI内の機械学習によって、AIは使えば使うほど賢くなります。

責任あるAI

私たちが責任を持ってAIを使う必要があるだけでなく、AIを設計しプログラミングする立場の人たちもまた、責任を持つ必要があります。技術者は、AIが依拠するデータが正確で偏りがないことを保証する必要があります。AIのアウトプットが正しく、偏見がないことを確認するためには、このような注意が必要です。

意識

「意識を持つ」とは、誰かあるいは何かが感情や感覚、情緒を認識していることを意味する形容詞です。AIを描いた近未来映画では、ロボットが感覚を持つようになったり、人間のような感情を「感じる」ようになったりすると、登場人物の世界が破綻します。ハリウッドのドラマにはうってつけである一方、今日のAIは感覚を持っていません。幸せ、興奮、悲しみ、恐れの本当の意味を共感したり理解したりすることはできません。 つまり、たとえAIが泣けるほど美しい短編小説を作ったとしても、AIは自分の作ったものが感動的だということを理解できません。単にプロンプトをこなしているだけで、次にどの単語を選ぶかをパターンで決めているのです。

※本記事はアスキーとマカフィーのコラボレーションサイト「せきゅラボ」への掲載用に過去のMcAfee Blogの人気エントリーを編集して紹介する記事です。

■関連サイト

カテゴリートップへ