英オックスフォード大学などに所属する国際研究チームは、有害な指示の前に無害な長い推論を付加することで、AIの安全機構を巧妙に回避するジェイルブレイク攻撃を提案した研究報告を発表した。
カナダのウォータールー大学の研究者は、レトロなMacintoshコンピュータ上で動作するチャットbot「8bit-GPT」を開発した研究報告を発表した。
arXivがコンピュータサイエンスカテゴリーにおいて、レビュー論文(サーベイ論文)とポジションペーパーの投稿に関する運用変更を発表した。これらをarXivに投稿する前に、学術誌または会議での採択と査読プロセスの完了が必要となる。
米ストーニーブルック大学や米コロンビア大学ロースクールなどに所属する研究者らは、著作権で保護された書籍で訓練されたAIが、専門作家よりも読者に好まれる文章を生成できることを明らかにした研究報告を発表した。
中国の上海交通大学に所属する研究者らは、大規模言語モデル(LLM)の登場により、生成AIによるサーベイ論文の増加していると指摘した研究報告を発表した。
中国のDeepSeek-AIに所属する研究者らは、本や画像などをスキャンして書いてある文字をデジタルテキストデータに変換するOCR(光学文字認識)を用い、長文を画像に圧縮する技術を発表した。
東京大学とオルタナティヴ・マシンに所属する研究者らは、大規模言語モデル(LLM)が明示的なプログラミングなしに生存本能のような行動を示すかどうか検証した研究報告を発表した。
米Google Researchと米Google DeepMindの研究チームは、AIと対話しながらストリートビューで地球上を探索できる視覚障害者向けツールを開発した研究報告を発表した。
中国や米ノートルダム大学に所属する研究者らは、「AI VTuber」のファンコミュニティーを対象とし、視聴者がどのようにして非人間的なパフォーマーと深い感情的絆を形成し、独自のコミュニティー文化を構築しているかを明らかにした研究報告を発表した。
米国のセキュリティ企業Cyberaなどに所属する研究者らは、AIが詐欺メールにだまされたふりをして詐欺師と会話を続け、犯罪に使われる銀行口座の情報を聞き出せるかを実験した研究報告だ。
中国の天津大学などに所属する研究者らは、患者の9つの臓器システムをそれぞれ独立したAIエージェントとして表現し、相互作用を通じて患者の状態変化を予測する研究報告を発表した。
米Google Researchに所属する研究チームは、ウェアラブルデバイスから収集した健康データを活用して、睡眠とフィットネスの個別指導を行う大規模言語モデル(LLM)を開発した研究報告を発表した。
中国ByteDanceに所属する研究者らは、国際数学オリンピック(IMO)で金メダル相当のパフォーマンスを獲得したAI推論モデル「Seed-Prover」を提案した研究報告を発表した。
米NVIDIA Researchに所属する研究者らは、大規模言語モデル(LLM)を中心に構築されている現在のエージェントAIシステムが、実際の運用では小規模言語モデル(SLM)の方が適しているという主張をした研究報告を発表した。
上海交通大学とSII-GAIRに所属する研究者らは、AIが自律的にニューラルアーキテクチャを発見し、改良する能力を実証した研究報告を発表した。
米国のAI研究機関であるModel Evaluation & Threat Research(METR)に所属する研究者らは、コーディングにおいて、AIツールを使うとどれくらい開発が効率化するかを調査した研究報告を発表した。
古代ギリシャの哲学者プラトンは、私たちが見ている世界は真の実在(イデア)の影にすぎないと説いた。米コーネル大学の研究チームは、このイデア論を人工知能の世界に適用した研究を発表した。
中国の清華大学や米UCバークレー、米Anthropicなどに所属する研究者らは2024年、強化学習による言語モデルの訓練が、予期せぬ副作用として人間を誤導する能力の向上をもたらすという懸念すべき現象を実証的に確認した研究報告を発表した。
MATSとApollo Researchに所属する研究者らは、最先端のAIモデルが自身が評価やテストを受けている状況を高い精度で識別できることを実証した研究報告を発表した。
中国の清華大学に所属する研究者らは、ARグラスと大規模言語モデル(LLM)を活用した記憶拡張システムを提案した研究報告を発表した。
中国の華南理工大学とオーストラリアのシドニー工科大学などに所属する研究者らは、極度の資源不足環境における大規模言語モデル(LLM)の倫理的行動を評価する研究報告を発表した。
物理学や数学、コンピュータサイエンスなどの論文を無料で公開・閲覧できる英語ベースのプレプリントサーバ「arXiv」。一方的な閲覧に限られ、コミュニティー機能は持たないが、「alphaxiv」なら各論文を介してWebブラウザ上で質問や議論ができる。
米MITや米OpenAIなどに所属する研究者らは、最新の視覚・言語モデル(VLM)が「no」や「not」といった否定表現を理解する能力に深刻な欠陥があることを発見した研究報告を発表した。
ニュージーランドのオークランド大学やシンガポール国立大学に所属する研究者らは、日常会話の中で事実と虚偽を瞬時に判別するスマートウォッチを提案した研究報告だ。
ノルウェー科学技術大学などに所属する研究者らは、大規模言語モデル(LLM)を使って、普通のチャット会話の中に秘密のメッセージを隠す方法を提案した研究報告を発表した。
スイスのチューリッヒ大学の研究者たちがAIを用いたオンライン実験を秘密裏に実施していたことが明らかになり、Redditユーザーたちが憤慨している。
米UCLAや米MITに所属する研究者らは、AIエージェントだけのSNSを作り、どういった振る舞いをするのかを観察した研究報告を発表した。
あるYouTubeチャンネルで、福岡大学の准教授が執筆したとされる論文を参照した解説動画が投稿された。概要欄には出典として論文の著者名とタイトルを明記していたが、この引用元の論文そのものが完全な偽物だという。
英ケンブリッジ大学や英アラン チューリング研究所などに所属する研究者らは、高速かつ高精度で気象予測ができるシステムを提案した研究報告を発表した。
中国の東南大学などに所属する研究者らは、大規模言語モデル(LLM)を活用して科学公式を発見するシステムを提案した研究報告を発表した。
フランスの研究者であるデビット・ピカールさんが2021年、深層学習アーキテクチャにおいてランダムシード(乱数生成器の初期値)の選択が精度に大きな影響を与えるかを検証した研究報告を発表した。
オーストラリアのニューサウスウェールズ大学やシンガポールの南洋理工大学に所属する研究者らは、AIが生成した錯視画像を利用する新しいセキュリティ対策を提案した研究報告を発表した。
米Appleに所属する研究者らは、人型でないロボットが人間と自然に関わるために、単なる機能的な動きだけでなく、感情や意図を表現する動きをどのように設計すべきかを探求した研究報告を発表した。
米Netflixなどに所属する研究者らは、生成する動画内のオブジェクトの動きやカメラワークを、思い通りかつ直感的に制御できる手法を提案した研究報告を発表した。
筑波大学に所属する研究者らは、猫が頭をすり寄せる動作(bunting)を模倣したロボットを開発し、そのいやし効果を検証した研究報告を発表した。
中国科学技術大学などに所属する研究者らは、AIを活用して原子を思い通りの形に配置する新技術を報告した研究を発表した。この技術は、将来の量子コンピュータの基礎となる可能性を示している。
米MITや日本のベンチャーSakana AI、米OpenAIなどに所属する研究者らは、人工生命のシミュレーションを自動的に探索・発見するシステムを提案した研究報告を発表した。
米カリフォルニア大学バークレー校に所属する研究者らは、中国のAI企業が米国の半導体輸出規制を回避して最先端のAIモデルを開発している実態を、テンセントの事例を中心に技術的・制度的な観点から分析した研究報告を発表した。
AIベンチャー「Sakana AI」は、自然界の生物の「すみ分け」の仕組みをヒントに、小規模なAIモデル(AIエージェント)を複数育て上げ、それぞれが得意分野を持ちながら協力し合える新しい開発手法を提案した研究報告を発表した。
元Googleの研究者らが立ち上げたAIチーム「Archetype AI」は、あらゆる物理現象を理解し予測するAIモデルを開発した研究報告を発表した。
米ワシントン大学と米Microsoft、AssemblyAIなどに所属する研究者らは、数メートル範囲で見えない防音空間(論文ではサウンドバブルと表現)を作れるAIヘッドフォンを提案した研究報告を発表した。
中国Tencentに所属する研究者らは、TransformerベースのMixture of Experts(MoE)モデルであるオープンソース大規模言語モデル(LLM)を提案した研究報告を発表した。
米プリンストン大学に所属する研究者らは、AIが生成した記事がWikipediaに含まれるかを調査した研究報告を発表した。研究チームは、2024年8月に新規作成された英語版Wikipediaの記事2909件を詳しく分析した。
米カリフォルニア大学アーバイン校などに所属する研究者らは2月、文章作成やイラスト制作においてAIシステムと人間、二酸化炭素の排出量が多いのはどちらか比較した研究報告を発表した。
米MetaのAI研究部門・FAIRに所属する研究者らは、安定性を保証する「リアプノフ関数」の発見という、数学者が1世紀以上も悩んできた数学問題にAIで検討した研究報告を発表した。
パキスタンのLUMSに所属する研究者らは、スマートフォンの内蔵センサーを利用した音声盗聴の新たな手法を提案した研究報告を発表した。
スペインのマドリード・カルロス3世大学やベルギーの研究機関Royal Meteorological Instituteなどに所属する研究者らは、航空機が地球の気候に与える影響について調査した研究報告を発表した。
スペインのバレンシア工科大学に所属する研究者らは、大規模言語モデル(LLM)の規模を拡大し、より指示に従う能力を高めるほど、AIモデルの信頼性が低下する可能性があることが明らかになった研究報告を発表した。
スペインのカタルーニャ古典考古学研究所やICREAなどに所属する研究者らは、スパイ衛星の画像と物体検出AIを組み合わせたシステムで古代の地下水路システムを発見した研究報告を発表した。
スイスのEPFLや英ロンドン大学に所属する研究者らは、大規模言語モデル(LLM)が、次のトークンを予測する能力に比べて、前のトークンを予測する能力が劣ることを明らかにした研究報告を発表した。
米フロリダ大学などに所属する研究者らは、Apple Vision Proなどの視線追跡技術を搭載したVR/MR機器に対する新たな攻撃手法を提案した研究報告を発表した。
第261回自然言語処理研究発表会において、東京工業大学と産業技術総合研究所に所属する研究者らは、大規模言語モデル(LLM)に日本語を学習する効果について実験結果を基に評価した研究報告を発表した。
米Googleやイスラエルのテルアビブ大学に所属する研究者らは、ニューラルネットワークのみで動作するゲームエンジン「GameNGen」を提案した研究報告を発表した。
米タフツ大学に所属するエリック・ホエルさんは2021年に、夢が過学習(オーバーフィッティング)を減少させる手段であると提案した研究報告を発表した。
FPT Software AI Centerに所属する研究者らは、メインフレームコンピュータの近代化を支援する新しい大規模言語モデルを提案した研究報告を発表した。
北海道科学大学に所属する研究者らは、コーディング作業を極力せずに、GPT-4を用いてマルウェアが作れるかを実際に検証した研究報告を発表した。
英インペリアル・カレッジ・ロンドンなどに所属する研究者らは、大規模言語モデル(LLM)の訓練データに著作権所有者の作品が含まれているかを特定する方法を開発した研究報告を発表した。
米シンクタンク「Sentience Institute」などに所属する研究者らは、2021〜2023年にかけて、3回にわたり米国の3500人を対象に、AIとその自己意識に関する認識について詳細な調査を行った研究報告を発表した。
ウルグアイのUniversidad de la Republica Montevideoに所属する研究者らは、HDMIケーブルから意図せずに放射される電磁波を傍受し、AIを使用して解読することでモニターに表示されている画像を再現する攻撃を提案した研究報告を発表した。
英オックスフォード大学や英ケンブリッジ大学などに所属する研究者らは、AIモデルが自己生成したデータで繰り返し学習すると、モデルの性能が低下していく「モデル崩壊」という現象を発見した研究報告を発表した。
オランダのRadboud Universityに所属する研究者らは、見ている画像を脳活動から再構築するAIを用いた神経デコーディングを提案した研究報告を発表した。
米Microsoftに所属する研究者らは、表計算ソフトを理解するための効率的な大規模言語モデルを提案した研究報告を発表した。
デンマークのコペンハーゲンIT大学とオールボー大学に所属する研究者らは、大規模言語モデル(LLM)の脱獄(ジェイルブレーク)を体験できるアーケードゲームを提案した研究報告を発表した。
人間には簡単だがAIには難しいテスト「ARC」を用いたコンテスト「ARC Prize 2024」が開催中だ。このコンテストでは総額110万ドル(約1億7780万円、1ドル=161円換算)以上の賞金を用意している。
英レディング大学などに所属する研究者らは、大学の試験において生成AIで回答した答案がバレるかを抜き打ちで実施した現実世界のチューリングテストの研究報告を発表した。
米プリンストン大学とカナダと米国のMicrosoftに所属する研究者らは、自信がない回答をする大規模言語モデル(LLM)に対して人々はどう反応するかを調査した研究報告を発表した。
AIベンチャーのSakana AIやFLAIR、英ケンブリッジ大学、オックスフォード大学に所属する研究者らは、人間の介入を最小限に抑えて新しい最適化アルゴリズムをAIによって発見する手法を提案した研究報告を発表した。
米Appleは、年次開発者会議「Worldwide Developers Conference 2024」(WWDC24)において、iOS 18、iPadOS 18、macOS Sequoiaに統合される独自AI「Apple Intelligence」を発表した。このシステムの基盤モデルについて、簡潔にまとめる。
オランダのRadboud University Nijmegenに所属する研究者らは、オープンソースと主張する生成AIを対象に、どの程度オープンなのかを調査した研究報告を発表した。
英キングス・カレッジ・ロンドンに所属する研究者らは、2022年11月にChatGPTが一般公開されたことを受け、Wikipediaの利用状況にどのような変化が生じたのかを調査した研究報告を発表した。
米シカゴ大学に所属する研究者らは、大規模言語モデル(LLM)、特にGPT-4が企業の財務諸表分析においてどのような能力を発揮するかを検証した研究報告を発表した。
米カリフォルニア大学サンディエゴ校に所属する研究者らは、AIが人間と区別がつかないレベルに達しているかどうかを調べるために、チューリングテストを実施した研究報告を発表した。
カナダのアルバータ大学や中国の四川音楽学院に所属する研究者らは、AIモデルのトレーニング用に作成したアニメ動画データセットを提案した研究報告を発表した。
中国の清華大学に所属する研究者らは、大規模言語モデル(LLM)を用いて、患者、看護師、医師などの役割を持つ自律的なエージェントによって構成された病院のシミュレーション環境を提案した研究報告を発表した。
米ミシガン大学に所属する研究者らは、人間の知覚に錯覚を引き起こすような画像を生成する手法を提案した研究報告を発表した。
英ノッティンガム大学に所属する研究者らは、AIが猫を幸せにできるのかを確かめるため、「クローバー」「パンプキン」「ゴーストバスター」という名前の3匹の猫が、12日間にわたって1日6時間、自律ロボットと過ごした実験の様子を報告した研究を発表した。
米MITや米コーネル大学に所属する研究者らは、大規模言語モデル(LLM)を用い、陰謀論者の考えを説得できるかを検証した研究報告を発表した。
東京大学情報システム工学研究室に所属する研究者らは、新海誠監督のアニメ映画「すずめの戸締まり」に登場する3本脚の椅子のキャラクターをモチーフにした非対称3脚低剛性ロボットを開発した研究報告を発表した。
米シカゴ大学に所属する研究者らは、生成AIモデルの無断学習を抑止するために、学習されても予期せぬ動作をAIモデルに生成させる毒入りデータに画像を変換するツールを提案した研究報告を発表した。
米Appleに所属する研究者らは、iPhoneやAndroidなどのモバイルUI画面をより深く理解し、インタラクションできるように設計されたマルチモーダル大規模言語モデルを提案した研究報告を発表した。