GoogleやMicrosoftなど14社、AIセキュリティ推進の「CoSAI」創設
AIを手掛ける複数の企業が、AIのセキュリティと安全基準策定を目指す新連合「Coalition for Secure AI」(CoSAI)を創設した。立ち上げメンバーはGoogle、IBM、Intel、Microsoft、NVIDIA、PayPal(以上がプレミアスポンサー)、Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、OpenAI、Wiz。
米GoogleなどのAIを手掛ける複数の企業は7月18日(現地時間)、コロラド州アスペンで開催の年次国際会議「Aspen Security Forum 」で、AIのセキュリティと安全基準を策定する新たな連合「Coalition for Secure AI」(CoSAI)の立ち上げを発表した。
創立メンバーには、Google、IBM、Intel、Microsoft、NVIDIA、PayPal(以上がプレミアスポンサー)、Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、OpenAI、Wizが含まれる。
CoSAIは、オープンスタンダードの開発を推進する非営利団体、OASIS(構造化情報標準促進協会)の下で活動し、オープンソースの方法論、フレームワーク、ツールへのアクセスを提供することで、「AIセキュリティの断片化された状況」に対処することを目指す。
各参加企業は、悪意あるサイバー攻撃者を寄せ付けないために、自社のプロジェクトで同じ厳格なセキュリティ基準に従うと約束している。
Googleは2023年にはAIを安全に使うためのフレームワーク「Secure AI Framework」(SAIF)を発表し、他の企業にAIモデルのセキュリティ対策見直しを促した。Googleは、それは最初の一歩に過ぎず、この1年、CoSAIをまとめるために取り組んできたという。
CoSAIはまず、AIセキュリティのベストプラクティスの開発、AIの課題への対応、AIアプリのセキュリティ保護という3つの目標に取り組むとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
OpenAI退社のサツケバー氏ら、「安全な超知能」目指すAI企業SSI立ち上げ
OpenAIで超知能の制御を目指すチームを統括するも幹部と対立して退社したイリヤ・サツケバー氏が、新たなAI企業Safe Superintelligence(SSI)を立ち上げた。「安全な超知能」の製品化を唯一の目標としている。
OpenAI、安全およびセキュリティ委員会を設立 トップはアルトマンCEO
OpenAIは、AGI開発を含むプロジェクトとに関する安全とセキュリティをレビューするための委員会を設立したと発表した。率いるのはサム・アルトマンCEOなど3人の理事。次世代モデルのトレーニングを開始したことも発表した。
米政府、AIの安全利用を助言する委員会にアルトマンCEOなど大手AIトップを招致
米国土安全保障省はバイデン大統領の指示の下、AIの安全利用に関する諮問委員会を立ち上げた。委員には、サム・アルトマン氏やサティア・ナデラ氏など、AI関連大手のトップなど22人が招致された。
AIの4社(Anthropic、Google、Microsoft、OpenAI)、安全なAI目指すフォーラムFMF立ち上げ
米国のAI主要企業であるAnthropic、Google、Microsoft、OpenAIは、新フォーラム「Frontier Model Forum」(FMF)を立ち上げた。AIの安全性のベストプラクティスを特定し、社会的課題へのAI技術の利用を促進するのが目的としている。

