感谢IT之家网友 航空先生 的线索投递!
,商汤科技于今日发布了多模态多任务通用大模型“书生2.5”,拥有 30 亿参数,号称是目前全球开源模型中 ImageNet 准确度最高、规模最大,同时也是物体检测标杆数据集 COCO 中唯一超过 65.0 mAP 的模型。
据介绍,“书生 2.5”的图文跨模态开放任务处理能力可为自动驾驶、机器人等通用场景任务提供高效精准的感知和理解能力支持。“书生”由商汤科技、上海人工智能实验室、清华大学、香港中文大学、上海交通大学于 2021 年 11 月首次共同发布,并持续联合研发。
改进方面,“书生 2.5”实现了通过文本来定义任务,从而可以灵活地定义不同场景的任务需求,并根据给定视觉图像和任务的提示性语句,给出相应的指令或作答,进而具备通用场景下的高级感知和复杂问题处理能力,比如图像描述、视觉问答、视觉推理和文字识别等。
在自动驾驶和居家机器人等通用场景下,“书生 2.5”可辅助处理各种复杂任务。
例如,在自动驾驶场景中,可以大幅提升场景感知理解能力,准确辅助车辆判断交通信号灯状态、道路标志牌等信息,为车辆决策规划提供有效信息输入。
除解决自动驾驶和居家机器人这类复杂问题的能力,“书生 2.5”通用大模型也可解决纷繁复杂的日常生活中的常见任务,满足各种需求。
除全图级别的以图生文,“书生 2.5”通用大模型同样可根据物体边框更精细化定位任务需求。
“书生 2.5”同时具备 AIGC“以文生图”的能力。可根据用户提出的文本创作需求,利用扩散模型生成算法,生成高质量、自然的写实图像。
例如,借助“书生 2.5”的以文生图能力帮助自动驾驶技术研发,通过生成各类真实的道路交通场景,如繁忙的城市街道、雨天拥挤车道、马路上奔跑的狗等,生成写实的 Corner Case 训练数据,进而训练自动驾驶系统对 Corner Case 场景的感知能力上限。
“书生 2.5”还可根据文本快速检索出视觉内容。
例如,可在相册中返回文本所指定的相关图像,或是在视频中检索出与文本描述最相关的帧,提高视频中时间定位任务的效率。此外还支持引入物体检测框,根据文本返回最相关的物体,实现开放世界视频或图像中物体检测及视觉定位。
即日起,“书生 2.5”多模态通用大模型已在商汤参与的通用视觉开源平台 OpenGVLab 开源,IT之家附 GitHub 仓库访问链接。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
-
盘扣式脚手架有哪些优点?四川远方模架告诉你答案!新浪网消息:四川远方模架科技有限公司位于四川省成都市,创建于2017年。公司拥有M60型盘扣脚手架总量达30000余吨,具有...
-
区块链如何跨越未来10年“十四五”时期,随着全球数字化进程的深入推进,区块链产业竞争将更加激烈。作为新兴数字产业之一,区块链在产业变革中发挥着重要作...
-
三人篮球将首登奥运舞台 国家三人男女篮签署反兴奋剂为实现东京奥运会兴奋剂问题“零出现”的目标,近日,中国篮协反兴奋剂委员会分别前往山东济南和上海崇明训练基地,为国家三人男、女...
-
中国光大银行北京分行开展“3·15行长当大堂经理”活
2023-03-15 18:08
-
微软Edge浏览器Dev版112.0.1722.7更
2023-03-15 18:07
-
畅捷携福骆星选品牌,点亮冠德石油品质好物
2023-03-15 18:03
-
为收购动视暴雪铺路,微软与Boosteroid云游戏
2023-03-15 18:01
-
iPhone14/Plus黄色版开售即破发起售价仅为
2023-03-15 17:55
-
晨星公司:汇丰收购硅谷公司英国子公司给汇丰带来的净收
2023-03-15 17:53
-
苹果首款OLED屏iPadPro有望搭载M4芯片由3
2023-03-15 17:51
-
四川黄金:公司股票近期涨幅较大目前公司市盈率高于同行
2023-03-15 17:39
-
唯卓仕99WhV口锂电池发布:双向PD45W快充,首
2023-03-15 17:30
-
传诺华制药NVS.US着手出售部分眼科资产
2023-03-15 17:28