BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:社内データをAIに学ばせると情報は漏れるか：
 仕組みから理解するリスク判断
X-WR-CALNAME:社内データをAIに学ばせると情報は漏れるか：
 仕組みから理解するリスク判断
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:995657@techplay.jp
SUMMARY:社内データをAIに学ばせると情報は漏れるか：仕
 組みから理解するリスク判断
DTSTART;TZID=Asia/Tokyo:20260526T120000
DTEND;TZID=Asia/Tokyo:20260526T124500
DTSTAMP:20260511T161016Z
CREATED:20260510T083901Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/99565
 7?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n━━━━━
 ━━━━━━━━━━━━━━━━━━━━━━━━
 ━━\n社内データをAIに学ばせると情報は漏れるか\n─
 ─ 仕組みから理解するリスク判断\n━━━━━━━━
 ━━━━━━━━━━━━━━━━━━━━━━━\n
 ✓ 「社内データをAIに入れると外に出るのでは」とい
 う懸念から、AI活用を止めたままにしている。\n✓ ChatG
 PTやCopilotを業務に使っていいのか、セキュリティの観
 点で判断できていない。\n✓ 「AIを禁止する」と決め
 たが、社員が個人端末で使っているシャドーAIの方が
 怖い。\n✓ ベンダーから「法人プランなら安全です」
 と言われたが、何がどう違うのか分からない。\nもし
 一つでも当てはまるなら、\n問題は「AIが危ない」ので
 はありません。\n「どこまでは安全で、どこからがリ
 スクか」を\n判断する基準がないだけです。\nこの45分
 で、情報漏洩リスクを3種類に分類し、\nサービス種別
 ・契約種別ごとに何が保証されるのかを\n自分で判断
 できる基準を持ち帰ることができます。\n■ こんな方
 におすすめです\n────────────────
 ────────────────\n✓ 情シス・セキ
 ュリティ担当として、生成AIの社内利用ポリシーをど
 う決めるか悩んでいる方\n✓ 「AIは怖い」という空気
 があり、活用推進を止められている方\n✓ 法人プラン
 と無料プランの違い、DPA（データ処理契約）が何を意
 味するか理解したい方\n✓ RAGやエージェントは「学習
 」と「参照」のどちらなのか整理したい方\n■ セッシ
 ョン説明\n───────────────────
 ─────────────\n「社内データをAIに入れ
 たら情報が漏れる」——この不安から、AIの活用判断
 を止めたままにしている組織は少なくありません。と
 ころが「怖いから禁止」という判断が、逆にシャドーA
 Iを生み出し、組織のセキュリティリスクを高めている
 という皮肉な実態があります。セキュリティリーダー
 の69%が、従業員による無断AI利用の証拠を保有または
 疑っているとGartnerは報告しています（2025年）。\n本セ
 ッションでは、情報漏洩リスクを「学習リスク」「ク
 ラウド保存リスク」「公開設定リスク」の3種類に整理
 し、それぞれが何であり何でないかを仕組みレベルで
 解説します。無料プランと法人プランの違い、DPA（デ
 ータ処理契約）が何を保証するのか、そしてRAGやエー
 ジェントは「参照」であり「学習」ではないという重
 要な区別まで、45分でまとめてお伝えします。\nまた、
 「どうしてもクラウドに出せない情報がある」という
 場合のローカルLLM活用についても触れます。JAXAや防衛
 省向けにオンプレ・閉域環境での支援実績を持つリベ
 ルクラフトの経験から、「全面禁止」でも「全面解放
 」でもない、グラデーションでの運用方針の引き方を
 具体的にお伝えします。\n株式会社リベルクラフト代
 表・三好大悟が、現場で動く言葉で45分お届けします
 。\nオプトイン・オプトアウトの仕組みについては、
 弊社YouTubeチャンネルの動画でも基礎から解説していま
 す。合わせてご覧いただくと理解が深まります。\n▶ Y
 outube｜社内データ×AI活用の境界線\n■ 今回話す内容\n
 ────────────────────────
 ────────\n\nなぜ「AIは危ない」という空気が
 生まれるのか──仕組みを知らないと怖いのは当然\n
 「学習リスク」「クラウド保存リスク」「公開設定リ
 スク」の3種類を整理する\nサービス種別（ChatGPT無料・
 法人プラン・API・オンプレ）ごとのリスク判断基準\nRA
 Gやエージェントは「参照」であり「学習」ではない─
 ─この区別が判断を変える\n自社のセキュリティ要件
 別に「どの選択肢が使えるか」を判断するフレーム\n\n
 ■ 登壇者\n───────────────────
 ─────────────\n三好大悟（株式会社リ
 ベルクラフト 代表）\nデータサイエンティスト出身。
 製造業・大手ITを中心に、AI・データ活用のコンサルテ
 ィングと社内研修を手がける。JAXA（宇宙科学研究所）
 や防衛省向けにオンプレ・閉域環境でのAI活用支援も
 手がけ、「セキュリティを確保した上でAIを動かす」
 現場を熟知している。\nX: 三好大悟\, リベルクラフト\n
 ■ 開催概要\n──────────────────
 ────────\n日時：2026年5月26日（火）12:00〜12:45
 \n時間：45分（本編35分＋Q&A10分）\n形式：Google Meetウェ
 ビナー（参加費無料）\n対象：情シス・セキュリティ
 担当・DX推進担当\n主催：株式会社リベルクラフト\n■ 
 注意事項\n───────────────────
 ───────\n・当日参加できない方のために、録
 画を後日参加者限定で配信します。申し込んでおくだ
 けで見逃し配信を受け取れます。\n・本ウェビナーは
 ビジネス用途を前提としています。同業他社の方はご
 遠慮いただく場合があります。\n・リクルーティング
 、勧誘など、採用目的でのイベント参加はお断りして
 おります。\n・欠席される場合は、お手数ですがキャ
 ンセル処理をお願いいたします。\n・無断キャンセル
 や欠席が続く場合、次回以降の参加をお断りさせてい
 ただく場合がございます。\n・内容は予告なく変更さ
 れる場合があります。
LOCATION:
URL:https://techplay.jp/event/995657?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
