ここまでできる!はじめてのAI開発 Microsoft Cognitive Services編

最終更新日:


Phlight Inc.でソフトウェアエンジニアをしています武田です。
AIをサービスに取り込む事に以前は否定的でした。精度の問題がどうしてボトルネックになるケースが多いイメージを持っていたからです。
ただ、今月から業務都合でAI関連のAPIを触る事になり、それがきっかけで意外と精度が高くビジネスにも適用できる分野がある事がわかってきました。
まだプロトタイプではありますが、Microsoft Cognitive Serviceを使用してアプリを一つリリースしましたので、振り返りを含めどのようにAIをサービスに取り組んだのか説明します。
アプリはこちらです。
http://phlight.site/celebhound/
カメラで有名人の顔を撮影するだけで、その人の名前を教えてくれるアプリです。
無料アプリなのでもしよければご使用ください。
Microsoft Cognitive Servicesの中のComputer Vision APIの有名人を判別するものを使用しました。
https://azure.microsoft.com/ja-jp/services/cognitive-services/computer-vision/
使用したエンドポイントはこちらです。
https://westus.api.cognitive.microsoft.com/vision/v1.0/analyze?visualFeatures=Faces&details=Celebrities
実際のAPIを叩くところは以下の通りです。
ViewController.swift
fileprivate func callVisionAPI(imageData: Data, language: String, detectOrientation: Bool, completion: @escaping (_ response: [String]? ) -> Void) throws {
UIApplication.shared.isNetworkActivityIndicatorVisible = true
var request = URLRequest(url: URL(string: msURL)!)
request.setValue([Azure APIKey

サイト名: Qiita
2017年6月21日

無料メールマガジン登録

週1回、注目のAIニュースやイベント情報を
編集部がピックアップしてお届けしています。

こちらの規約にご同意のうえチェックしてください。

規約に同意する