文章预览
教程网页 :https://mllm2024.github.io/ACM-MM2024/ 时间 :墨尔本时间 2024年10月28日星期一,上午9点到中午12:30。对应北京时间 2024年10月28日星期一,上午6点到9:30 线下现场位置 :Meeting Room 210, at Melbourne Convention and Exhibition Centre 线上参会Zoom :https://is.gd/Yv1hfr (ID: 857 2752 4712, Passcode: 951113) 近年来,随着大语言模型(LLMs)的出现(如OpenAI的ChatGPT系列,Meta的LLAMA系列,以及Flan-T5、Vicuna和Alpaca等等),全世界目睹了人工智能(AI)前所未有的智能能力。这些LLMs在理解语言方面展示了卓越的能力,预示着实现真正的通用人工智能(AGI)的日期不远。但实际上,我们人类生活在一个包含视觉、听觉、感觉等多种信息模态共存的世界里。这赋予了研究LLMs多模态感知和理解能力的必要性,以更快更好地实现与人类类似水平的AI,即AGI。这催生了多模态大语言模型(MLLMs)
………………………………