BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//https://techplay.jp//JP
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALDESC:ARアプリ開発講習会（AR Kit2・CoreML2が1日ですべ
 て丸わかり）
X-WR-CALNAME:ARアプリ開発講習会（AR Kit2・CoreML2が1日ですべ
 て丸わかり）
X-WR-TIMEZONE:Asia/Tokyo
BEGIN:VTIMEZONE
TZID:Asia/Tokyo
BEGIN:STANDARD
DTSTART:19700101T000000
TZOFFSETFROM:+0900
TZOFFSETTO:+0900
TZNAME:JST
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
UID:732005@techplay.jp
SUMMARY:ARアプリ開発講習会（AR Kit2・CoreML2が1日ですべて
 丸わかり）
DTSTART;TZID=Asia/Tokyo:20190714T100000
DTEND;TZID=Asia/Tokyo:20190714T170000
DTSTAMP:20260403T201929Z
CREATED:20190514T150505Z
DESCRIPTION:イベント詳細はこちら\nhttps://techplay.jp/event/73200
 5?utm_medium=referral&utm_source=ics&utm_campaign=ics\n\n\n\nARアプリ
 開発講習会（AR Kit2・CoreML2が1日ですべて丸わかり）\n\n
 iOS11より、拡張現実（AR）の「ARKit」と機械学習に関す
 る機能「Core ML」が搭載され、話題を呼びました。現在
 はそれぞれバージョンがあがり、AR Kit2・CoreML2となっ
 て、さらに機能豊かなアプリが実装可能となっており
 ます。\n\nそこで、1日でこれら全てが丸わかりできる
 講習会を開催いたします。\n\nARアプリってどんなもの
 があるの？\n\niPhoneXよりカメラのレンズが2台搭載され
 ることとなり、アプリで採寸できるようになりました
 。これにより家具のシミュレーションなどもより正確
 にできるようになっています。\n\n\n\nまた、ネイルや
 化粧のシミュレーションアプリも登場しており、試着
 シーンにも欠かさぬ存在になりそうです。\n\n\n\nさら
 に、iPhoneだけで3Dスキャンができるアプリが登場して
 おり、3Dそのものが一般人にとっても身近なものにな
 りそうです。\n\nARアプリの切り開く未来とは？\n\nGoogle
 Glassのようなヘッドセットが普及すれば、見たものを
 すぐに調べられる「ARで検索」も当たり前になるでし
 ょうし、AR空間上に落書きメモや順路などを残すこと
 もできます。今までのスクリーンがスマホ画面から、
 リアル空間全体に変わることになりますので、大きな
 ビジネスチャンスがアプリ開発者のもとに訪れるとい
 っても過言ではありません。\n\n先日、ポケモンGOの運
 営元ナイアンティックが、開発中の拡張現実プラット
 フォーム Niantic Real World Platform をプレビュー公開しま
 した。ゲームだけでなく様々な用途に利用される基盤
 技術と位置づけており、独自のゲームやアプリの展開
 を望むサードパーティー開発者を募っているとのこと
 で、ますますAR市場は加速しそうです。\n\nARKitとは\n\nA
 RKitはiPhoneやiPad向けのARエクスペリエンスを開発するフ
 レームワークで、カメラセンサーのデータと、Core Motio
 nデータと総称されるデバイス内蔵の加速度計やジャイ
 ロスコープ、歩数記録計などと連携するフレームワー
 クです。\n\nCore MLとは\n\nCore MLは、モバイルデバイス上
 で直接、学習モデルを実行できる「基本的な機械学習
 フレームワーク」です。\n\n顔追跡や顔検出、ランドマ
 ーク検出、テキスト検出、長方形検出、バーコード検
 出、オブジェクト追跡などを使用すると、開発者は視
 覚的な機械学習を作成しアプリに実装することができ
 ます。\n\nCore MLは単体で使うことも可能ですが、他フ
 レームワークとの併用もサポートされており、画像解
 析には「Vision」、ゲームに利用する場合は「GameplayKit
 」を使うことができます。\n\nVisionとは\n\nコンピュー
 タビジョンの機械学習機能を容易にAppに組み込むこと
 ができます。フェイストラッキング、顔検出、ランド
 マーク、テキスト検出、矩形検出、バーコード検出、
 オブジェクトトラッキング、画像レジストレーション
 などの機能に対応しています。\n\n\n\n1日で「ARアプリ
 」と「機械学習」の基礎的なことが全てわかります\n\n
 今回は、このARkitとCoreMLをベースにARアプリのサンプル
 をあますところなく解説していき、その複数のサンプ
 ルプログラムを参考にオリジナルのアプリ（プロトタ
 イプ版）を実装していただきます。\nまた、これらを
 使って、どんなアプリができるのか、どんなARアプリ
 が人気なのかを紹介しつつ、アプリ企画の講座も用意
 しております。\n\nたった1日で、ARや機械学習のiOSの全
 てがわかる講座となっております。\n\nAppleは2020年に、
 ARにも仮想現実（VR）にも対応する強力なヘッドセット
 を開発中と噂されております。\n未来を先回りして、
 その可能性にかけたいエンジニアの皆さま、ぜひご参
 加ください。\n\n今回取り上げるサンプルアプリ・プロ
 グラム\n\nサンプルアプリプログラムはAppleが配布して
 いるものと、今回独自で用意したものを使い、それぞ
 れについて解説していきます。\n\n０）Swiftでアプリを
 作ってみる（Xcodeの使い方）\n\niOSアプリ開発初心者に
 はとっつきずらいSwiftですが、画面作成には欠かせな
 いプログラミング言語です。ゼロからXCodeの使い方を
 レクチャーしていき、プログラムの構造を理解してい
 ただきます。\n\n\n\n１）AR空間で3DオブジェクトをAR表
 示する（ARKit）\n\nネット上で無償配布されている3Dオ
 ブジェクトを取り込んで、ファインダー越しにあたか
 もその物体があるかのような体験をしていただきます
 。\n3Dオブジェクトでオリジナルアプリを制作したい方
 はあらかじめ、３Dオブジェクト（usdzファイル、daeフ
 ァイル）をご用意ください。\n\n\n\n２）カメラ画像か
 らAR空間をマッピング。平面検知、物体名を判定する
 （ARKit）\n\n壁、屋根、テーブル、床などを判定して表
 示するアプリを作ります。\n\n\n\n３）平面へ3Dオブジェ
 クトを配置させる（ARKit）\n\n平面へ実際にサンプルオ
 ブジェクトを配置してみます。\n\n\n\n４）複数のユー
 ザーでAR空間を共有する（ARKit）\n\n例えば、同じ焚き
 火を囲むようなキャンプファイアーアプリを作ること
 ができます。\n\n\n\n５）空間認識データを保存。永続
 性のあるAR空間認識を実現する（ARKit）\n\n緯度経度情
 報と紐付づけるようにすれば、上空に天空の城を配置
 したり皇居に江戸城を建てることもできます。\n\n\n\n
 ６）現実世界の鏡面反射を再現する（ARKit）\n\nARKitを
 使用して、カメラの画像からテクスチャを生成し、反
 射的な仮想オブジェクトをレンダリングします。\n\n\n\
 n７）ユーザーの顔を認識する（Vision）\n\n顔をリアル
 タイムで検出して追跡します。これを応用すれば笑顔
 などの表情をリアルタイム認識、みんなが笑顔になっ
 た瞬間に写真撮影するアプリを作ることができます。\
 n\n\n\n８）ファインダーに映った物体をリアルタイムで
 認識する（Vision \, CoreML）\n\ninception-v3という物体認識
 の既存モデルを使ったリアルタイム検出アプリです。\
 nVisionフレームワークを使用して写真を事前処理し、コ
 アMLモデルで分類します。\n机、椅子といった一般的な
 物体（1000種類）を認識して一般名称を表示、認識率を
 計測することができます。\n表示するテキストを翻訳
 すれば「指差し単語帳」ができますし、\n認識率が何
 パーセント以上になれば「写真をとる」というような
 トリガーを発動するアプリが考えられます。\n\n\n\n９
 ）カメラで空間を認識。学習モデルで検知したオブジ
 ェクト座標に3Dオブジェクトを配置（Vision\,CoreML\,ARKit
 ）\n\nその物体が何なのかを認識し、その物体の上にテ
 キストや３Dオブジェクトを表示します。\n\n\n\n１０）P
 laygroundとCreateMLで学習モデルを作成する（CreateML）\n\n
 実際に画像を集めてモデルを作ります。例えば、「こ
 の人の画像は、オバマか、トランプか」といった機械
 学習のモデルを作っていただき、それを上記の「リア
 ルタイム物体認識アプリ」に独自モデルを組み込んで
 試していただきます。\nこれを応用すると、「この花
 はなんていう名前なんだろう」という時に調べられる
 リアル検索アプリなどを作ることができます。（犬種
 、猫種、フォント名を教えるアプリなどが、すでに人
 気アプリとして出ています。）\nまた、ある看板や特
 定の人を見つけると反応するアプリや、スタンプラリ
 ーなども考えられます。\n\n\n\n※）実装時間や参加者
 のスキルレベルを考慮して、スピード調整させていた
 だきますので、全てを網羅できない場合がございます
 。ただ、iOSアプリの上級者でも、独自で進んでいただ
 けるようなカリキュラムにしております。\n\n\n\n【参
 加対象者】\n\n・iPhoneアプリを作ってみたいという方（
 学生、初心者エンジニアも歓迎）\n・機械学習のアプ
 リを実際に作ってみたい方\n・ARアプリを実際に作って
 みたい方\n・この分野で仕事をとっていきたいという
 方\n\n初心者の方には、サンプルプログラムを動かして
 、ちょっとした改変を楽しんでいただき、\n上級者の
 方には、複数のサンプルプログラムを応用し、独自の
 アプリを実装していただきます。\n\n【再受講制度】\n\
 n「その日の講習で理解ができなかった。みんながいる
 ところで一緒に開発したい。」という方のために、今
 回の当講座の参加者に限り、次回以降（隔月開催を予
 定）も無償参加できるようにいたします。（今は特に
 制限はございませんが、後になって回数制限や廃止に
 なることがあります。）\n\n【持ち物】ARKitに対応したM
 AC機種とiPhone機種について\n\n開発実機：「OS Sierra 10.12.
 4」以上のアップルデバイス\n・MacBook（Late 2009またはそ
 れ以降）\n・MacBook Pro（2010年半ば以降）\n・MacBook Air（2
 010年後半以降）\n・Mac mini（2010年半ば以降）\n・iMac（20
 09年後半またはそれ以降）\n・Mac Pro（2010年半ば以降）\
 n\n検証端末：iPhone6S〜8\,X\,XSのいずれか\n\n\n\niOSのバー
 ジョンとMAXOSは最新版にしていただき、あらかじめXcode
 をダウンロード、最新バージョンにしてください。\n\n
 ※貸し出しはございません。ARKitアプリはシミュレー
 タで動かないため、iPhone6S以上をご用意ください。\n\n
 【カリキュラム】\n\n10:00-13:00　「サンプルプログラム
 の解説」\n\nXcodeの使い方の説明と10個のサンプルプロ
 グラムの解説。講義中もサンプルプログラムを改変す
 ることでアプリの作り方を学んでいただきます。\n\n\n\
 n14:00-15:00　「ARアプリの企画講座」\n\n実際にどんなAR
 アプリが公開され、どんなARが人気なのかを学びます
 。その上でアプリ企画のポイントを詳しく解説します
 。午前で学んだサンプルアプリの、どのロジックをど
 のように使って、どんなアプリができるのかについて
 も復習していただきます。\n\n\n\n15:00-17:00　「オリジナ
 ルアプリの実装」\n\nサンプルプログラムで学んだロジ
 ックを使い、新しくオリジナルアプリを制作していた
 だきます。初心者はサンプルアプリに手を入れていく
 程度でも楽しいアプリケーションを作ることができま
 すし、アプリ開発経験者は今までのスキルに今回学ん
 でいただいたロジックを入れることで、さらに魅力的
 なアプリ開発体験ができることでしょう。\n\n\n\n【講
 師紹介】\n\nフリーランスのエンジニアとしてVR/ARアプ
 リおよび画像認識アプリの開発に従事。\n\nゲームから
 BtoB向けアプリまで実績多数。\n
LOCATION:デイズ赤坂見附 東京都港区赤坂3-9-1 デイズ赤坂
 見附
URL:https://techplay.jp/event/732005?utm_medium=referral&utm_source=ics&utm
 _campaign=ics
END:VEVENT
END:VCALENDAR
