开源模型的组合将击败最好的私有模型。
@AI学者 吴恩达
通过Dual-Pivot Tuning实现的个性化恢复技术在恢复图像中实现了高身份保真度和自然外观。实验证明,与盲目和少数样本的面部图像恢复的各种最先进替代方法相比,定制模型在个体身份方面表现更好,并且在一般图像质量方面优于通用先验。该方法对不同类型的降解是不可知的,并在保持身份的同时提供一致的恢复。
LLaVA是一个端到端训练的多模态大模型,它将视觉编码器和用于通用视觉和语言理解的Vicuna相结合,具备令人印象深刻的聊天能力。而CogAgent是在CogVLM基础上改进的开源视觉语言模型,拥有110亿个视觉参数和70亿个语言参数。
针对成果发布问题,《指引》强调,公布突破性研究成果和重大研究进展应经所在科研单位同意。未经科学验证或同行评议的研究成果,科研人员不得向公众传播;不得将已发表的论文或其中的数据、图片等再次发表,不得将多篇已发表论文各取一部分拼凑出“新成果”后发表。