メルマガはこちらから

PAGE
TOP

『「ChatGPT」など対話型AIを組み込むサービス開発でのセキュリティリスクとは?』というテーマのウェビナーを開催

PR TIMES

マジセミ株式会社
マジセミ株式会社は「「ChatGPT」など対話型AIを組み込むサービス開発でのセキュリティリスクとは?」というテーマのウェビナーを開催します。





(詳細及び参加申込はこちら)
https://majisemi.com/e/c/gmo-cybersecurity-20230628/M1D

■「ChatGPT」が急速に普及、「大規模言語モデル(LLM)」に集まる熱視線
近年、生成AI技術の研究や活用が進む中で、米国OpenAIの「GPT」、米国Googleの「PaLM」、米国Metaの「LLaMA」など様々な「大規模言語モデル(LLM)」が登場しています。それにより、言語処理タスクを高精度に実行することが可能となりました。
特に、2023年3月に「ChatGPT」のAPIが一般公開されたことで、自社の製品やサービスにGPTを利用した対話型アプリケーションの開発が急速に増えています。リアルタイムな応答システムやビジネスプロセスの自動化による業務効率化など、様々な利用シーンや活用メリットが期待できます。

■新たなリスクとして問題視される「敵対的プロンプト」とは?
対話型AI技術を組み込むサービスが急速に普及する一方で、その特性を悪用した新たなセキュリティリスクが問題視されているのはご存じでしょうか。
それが「敵対的プロンプト(Adversarial Prompting)」です。敵対的プロンプトとは、LLMの出力を意図しない内容に誘導するように設計された一連の入力文のことを指します。

敵対的プロンプトに関するサイバー攻撃リスクとしては以下のようなものが存在します。
(1)プロンプトインジェクションによる出力の乗っ取り
(2)プロンプトリークによる秘密情報の漏洩
(3)コンテンツポリシーの回避による非倫理的なコンテンツの出力(ジェイルブレイク)

■対話型AIを組み込んだサービス開発におけるリスクの詳細、留意点を分かりやすく解説
対話型AIを組み込んだアプリケーション・サービスを開発する上では、どのようなセキュリティリスクに注意すべきなのでしょうか。
本セミナーでは、LLM(大規模言語モデル)などのAI技術を活用したアプリケーション/サービスを開発したいと考えている部門や担当者の方を対象としています。
「対話型AIを組み込んだサービス開発では、どのようなセキュリティリスクがあるのか」「そうしたリスクにどのように対処すべきなのか」を分かりやすく解説いたします。
対話型AIを活用するアプリケーション特有のセキュリティリスクについて知りたい方は、ぜひご参加ください。


(詳細及び参加申込はこちら)
https://majisemi.com/e/c/gmo-cybersecurity-20230628/M1D

■主催
GMOサイバーセキュリティ byイエラエ株式会社
■協力
株式会社オープンソース活用研究所
マジセミ株式会社

マジセミは、今後も「参加者の役に立つ」ウェビナーを開催していきます。

★他のWebセミナーの申し込み、過去セミナーの動画・資料については、以下からご確認ください★
https://majisemi.com?el=M1D

★ウェビナーを開催したい方はこちらの動画をご覧下さい★
https://youtu.be/pGj3koorgSY