プロジェクトを担当することになった伊藤さんはまず、AIを活用した新システムに求められる条件を大きく分けて3つに分解したという。
1つ目の条件は、AIに関する高度な専門知識がなくても使いこなせることだ。部署を移動したばかりでAIや広告審査の知識が少ない伊藤さんが1人で担当していたことから、専門人材がいない状況でもAIの開発環境を構築・運用できることが必須だったという。
2つ目の条件は、AIモデルを継続的にチューニングしたり、状況に応じて新しいモデルを開発したりできる環境を構築可能なことだ。日々多様化する広告のトレンドに対応するには、長期的にAIモデルを調整していく必要がある。
今回の場合、AIモデルの調整には、学習用データとして過去の審査データを継続的に蓄積し、検索・分析できる環境が必須だった。しかし審査数が膨大なこともあり、既存システムでは過去3日間のデータを保存するのが限界。AIを長期的に調整するには、データの長期保存を実現し、それを基にトライ&エラーを繰り返せる環境を整えなければいけなかった。
最後の条件は、既存のシステムを止めずに利用できることだ。NGワードを検出する方式の旧システムはヤフーのオンプレミスサーバ上で稼働している。このサーバに新たなシステムを載せると、発生する負荷によっては両方のシステムが使えなくなる可能性があった。広告審査にAIを活用するのは初めてで、負荷の予測も難しかったことから、別の基盤を活用し、リスクを避けたかったという。
3つの条件を満たしたシステムの開発に当たり、伊藤さんは米Googleのクラウドサービス「Google Cloud Platform」(GCP)を活用。これまでの審査データを学習させたAIをGCP上に構築し、旧システムと併用する仕組みを採用した。
GCPを活用した理由は2つある。1つ目はGCP上で利用できる機械学習サービス「Cloud AutoML」を活用することで、AIの開発を効率化できると見込んだからだ。
Cloud AutoMLはAIモデル開発の学習プロセスを自動化できるサービスで、AIの専門知識を持たない伊藤さんでもAIモデルを構築できることから、今回のプロジェクトと相性がいいと判断した。
2つ目の理由は、GCP上で使えるデータウェアハウス「Big Query」を活用することで、大量のデータを長期保存したり、分析したりしやすくなると考えたからだ。旧システムでは3日間しか保存できなかったデータを1年間まで保管できる、他社のデータウェアハウスより必要なデータを速く検索できる──といったメリットが見込めたという。
GCPはクラウドサービスで、既存のオンプレサーバに影響を与えずAIを構築・運用できることから、負荷を気にせず旧システムとの併用が可能なことも決め手の一つになった。
「年1万時間の業務削減」自社AIで成し遂げたオープンハウス カギは住宅チラシの自動作成 キーパーソンに聞く舞台裏
月3000枚の墓石写真を自動で名前消し “AIに無関心”だった元石材屋の社員がエンジニアと業務AIを作るまでの一部始終
音ゲーの“譜面”作りをAIで高速化 KLabが「スクスタ」で活用、所要時間を半分に
まるで“SIer版ヤシマ作戦” 「エヴァ」公式アプリを配信基盤含め1カ月で開発 エンジニア2人の失敗できない挑戦記
キリン、ビールの製造計画をAIで立案 年3000時間以上を削減 まずは「ろ過計画」からCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR