3月14日,商湯科技發(fā)布多模態(tài)多任務通用大模型“書生(INTERN)2.5”,在多模態(tài)多任務處理能力方面實現(xiàn)多項全新突破,其卓越的圖文跨模態(tài)開放任務處理能力可為自動駕駛、機器人等通用場景任務提供高效精準的感知和理解能力支持,向通用人工智能邁出堅實的一步?!皶?INTERN)”最初版本由商湯科技、上海人工智能實驗室、清華大學、香港中文大學、上海交通大學在2021年11月首次共同發(fā)布,并持續(xù)聯(lián)合研發(fā)。
“書生2.5”擁有30億參數(shù),不僅是世界上開源模型中ImageNet準確度最高、規(guī)模最大的模型,也是物體檢測標桿數(shù)據(jù)集COCO中唯一超過65.0 mAP的模型。目前,“書生2.5”多模態(tài)通用大模型已在通用視覺開源平臺OpenGVLab開源,為學術界和產業(yè)界的多模態(tài)通用模型研發(fā)提供有力支撐。
“書生2.5”的圖文跨模態(tài)開放任務處理能力可為自動駕駛、機器人等通用場景任務提供高效精準的感知和理解能力支持。即日起,“書生2.5”多模態(tài)通用大模型已在商湯參與的通用視覺開源平臺OpenGVLab開源。