总部位于哥本哈根的合规科技企业Formalize近日宣布完成3000万欧元(约合人民币2.3亿元)的B轮融资,本轮融资由Acton Capital和Blackfin Tech共同领投。该公司开发的合规管理软件目前已服务全球80多个国家的数千家中...
Read More全球零食巨头亿滋国际(Mondelez)宣布投入超过4000万美元,与阳狮集团(Publicis)及埃森哲(Accenture)共同开发生成式AI工具,旨在将营销内容生产成本大幅降低30%至50%。该工具通过自动化创意生成、视觉设计及多...
Read More通用应用程序(Universal applications)采用单一代码库即可部署到Web、移动端等多平台。随着Solito、Expo等技术的突破,真正的跨平台开发已成为可行方案。这种模式不仅能将品牌覆盖率提升30-40%,还能显著降低运维...
Read More视觉AI平台服务商Bria近日在Hugging Face发布新一代开源文本生成图像模型BRIA-3.2,其技术突破引发行业关注。该模型仅用4B参数即实现与Adobe Firefly 4.0和Flux[Dev]相当的图像生成质量,且模型体积缩小至三分之一,...
Read MoreMeta研究团队最新提出的零样本嫁接(zero-shot grafting)方法,通过从大型语言模型(LLM)的浅层中提取小型代理模型来训练视觉编码器,实现了视觉语言模型(VLM)训练成本降低约45%的突破。该技术不仅显著降低了计...
Read More谷歌近日发布了开源AI模型SpeciesNet,该模型专为通过相机陷阱图像识别动物物种而设计。SpeciesNet此前已应用于Wildlife Insights平台,其开源将显著提升全球生物多样性监测的规模与效率。这一技术突破结合了计算机...
Read More联邦学习领域迎来突破性进展,FUSED(Federated Unlearning with Sparse Efficient Deletion)系统通过创新的稀疏遗忘适配器技术,首次实现了联邦学习环境下的定向知识擦除与可逆操作。该技术通过在模型微调层植入轻...
Read MoreFed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...
Read More