搜索优化
Rewards
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 30 天
时间不限
过去 1 小时
过去 24 小时
过去 7 天
按时间排序
按相关度排序
11 天
中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测 ...
由中科大王杰教授团队(MIRA Lab)提出的 首个 具有最优性保证的大语言模型和图神经网络分离训练框架 ,在国际顶级图学习标准OGB(Open Graph Benchmark)挑战赛的蛋白质功能预测任务上斩获「第一名」 ...
36氪
12 天
中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测 ...
表示节点编码器(NE)的参数。由于大型的预训练模型(如:用于蛋白质序列的ESM2, 用于文本的Bert)具有强大的特征提取能力,故将其作为节点编码器f。 大多可扩展的图神经网络可分为基于数据采样和基于模型结构的两类思想。 然而,现有图采样方法中使用的 ...
13 天
《Python机器学习》作者科普长文:从头构建类GPT文本分类器,代码开源
近日,机器学习研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又分享了一篇长文,主题为《从头开始构建一个 GPT 风格的 LLM 分类器》。
14 天
AI新时代:Hugging Face平台模型数量破百万,这些工具让你工作更高效
近日,Hugging Face宣布其平台上收录的人工智能模型数量突破100万,这一里程碑不仅体现了自然语言处理(NLP)领域的快速发展,也反映出开放共享的AI社区在推动技术创新方面的巨大潜力。自2016年成立以来,Hugging ...
51CTO
15 天
大模型微调哪家好?小孩子才做选择,成年人当然是全都要
Adaptor核心是在原Bert中增加参数量更小的子网络,finetune时固定其他参数不变,只更新这个子网络的参数。Adaptor是最早的一类高效finetune方法的代表,在Parameter-Efficient Transfer Learning for NLP(ICML 2019)这篇文章中被提出。在原来的Bert模型的每层中间加入两个adapter。
人人都是产品经理 on MSN
16 天
大模型时代(4): 知识力——构建完备的知识处理能力
对于产品经理而言,理解和掌握大模型(Large Language Models 和 Multi-modal ...
来自MSN
17 天
大模型时代(1):探索业务场景中的Agent应用
近年来,人工智能技术的飞速发展,尤其是大模型(Large Language Models,LLMs)在各个领域展现出的巨大潜力,使其成为当前最热门的话题之一。
51CTO
29 天
文档脱敏技术在信贷评审业务上的应用
图4 规则数据解析 对于企业注册地址等敏感要素,工行软开中心对标业界先进经验选择LBERT+CRF模型结合知识图谱的方法来精准识别企业的省、市、区、街道等详细地址信息。在传统的BERT模型基础上引入Lexicon Adapter模块(即LBERT模型),该模块能够关联字符和词汇 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈