当前位置: 首页 > news >正文

做网站美工需要会什么软件上饶哪里培训网站建设

做网站美工需要会什么软件,上饶哪里培训网站建设,公众平台推广,山东网站搭建有限公司文 | iven编 | 小轶用机器构建数据集#xff0c;这件事可能比机器学习诞生的还要早#xff0c;很多人做过很多工作。怎样让机器参与进来#xff1f;前人的工作可以分成两类思路#xff1a;一类是以远程监督为代表#xff0c;让机器来标注#xff0c;主要目的在于得到更多… 文 | iven编 | 小轶用机器构建数据集这件事可能比机器学习诞生的还要早很多人做过很多工作。怎样让机器参与进来前人的工作可以分成两类思路一类是以远程监督为代表让机器来标注主要目的在于得到更多的数据另一类是以主动学习为代表机器在数据集中选出最难的样本让人标注主要目的在于得到更高质量的数据。在大模型大数据的今天前一类思路成为了主流机器标注虽然质量不如人但能以最低的成本标注最多的数据。数据中的噪声就依靠大模型的鲁棒性来消化庞大的数据量似乎更有用。近日华盛顿大学 Yejin Choi 组的研究又对这个问题进行了反思。怎样才能在机器参与构建数据集的流程里最好地发挥机器的效用呢机器与人应该是互补的而不是让机器代替人来标注。人类在标注大规模数据的时候很容易有这样一个局限一个人设计数据时经常只依赖几种重复的模板。这样尽管标注了大量的数据但数据集会缺乏语言学上的多样性。相比于一个标注团队GPT3 生成的语料则会丰富得多。而相比于机器人的优势在于更高的标注准确率。基于此这篇文章提出了一个全新的构建数据集流程基于一个现有的数据集挑选出里面对机器困难的样本让 GPT3 生成更多更丰富的同类困难样本让人来检查和优化。作者采用这套人机合作的数据构建方式以较低的人力成本构建了超大规模的自然语言推断NLI新数据集 WANLI。实验表明在 WANLI 数据集上训练的模型会有更好的性能。最突出的是训练后模型所具备极强的跨领域迁移能力迁移到十分内卷的 NLI 数据集 HANS 和 ANLI 上做测试也都分别提升了 11% 和 9% 的准确率。论文题目: WANLI: Worker and AI Collaboration for Natural Language Inference Dataset Creation论文链接: https://swabhs.com/assets/pdf/wanli.pdf人机如何合作整个方法的流程可以分成四个部分找难的样本让 GPT3 生成困难样本的同类型样本机器自动过滤人工检查和优化。整体很符合直觉但是我们看到会有两个疑问1. 什么是困难的样本作者们之前的工作[1] 为数据集设计了一张 data map图中每个点代表一个样本纵坐标是模型预测 logits 的大小表示了模型对预测结果的置信度confidence横坐标是模型在不同 epoch 预测这个样本时的置信度方差点的颜色代表一个样本在不同 epoch 预测中正确率。蓝色正确率较低红色较高。直觉上我们会认为“置信度低”的就是难以学习的样本。实际上这些样本大多是标注错误的样本点。而“方差大”的样本才是真正对模型困难的。作者在原始数据集中选了最困难的样本作为后面生成数据的种子样本。2. 怎样界定“同类型”样本怎样让 GPT3 生成困难样本的同类型样本作者对于“同类型”样本的界定并不是说在语意层面的相似度出发做一些数据增强。而是说对于这一类“难题”再给模型出一些在逻辑层面reasoning类型相同的难题比如种子样本中前提说“5% 没有 xxx”假设说“95% 有 xxx”两句话之间是数学上的互补关系因此推断成立。我们要生成的样本也应该具有前提和假设的数学互补关系这样才是同类困难的样本。怎样生成同类困难样本本文作者想到了 GPT3 的 in-context learning。前面给出几个同类的样本作为示例prompt后面就让 GPT3 自由生成同类的新样本。可问题又来了怎样在原数据集里找到这些同类型的样本呢作者采取了非常简单的方法如果两个样本 [CLS] 的表示是接近的那么就认为这两个样本是上面定义的同类样本。对于每个种子样本都在原来的数据集中找出同样标签最近的 k 个样本作为输入 GPT3 的 prompts。作者基于 MultiNLI 数据集使用上面的方法生成了 WANLI 数据集。WANLI 数据集只取了 MultiNLI 中四分之一最难的样本作为种子样本最终 WANLI 的规模也是 MultiNLI 的四分之一。用 WANLI 训练的效果这张图是主实验的结果。作者使用同样的 RoBERTa-large 模型在不同的数据集上训练和评测。表格纵坐标代表训练的数据集横坐标代表测试的数据集。彩色的格子代表训练和测试在不同的数据集即 out-of-domain 的情况。整个表格分成了上中下三个部分上面的部分是只使用 MultiNLI 或者 WANLI 训练四分之一的数据量训出了显著更好的结果中间的部分是用 MultiNLI 融合其它数据集训练。其中 指使用两个数据集的和◇ 指用后面数据集随机替换前面数据集中的样本。结果表明不是数据越多越好而是越多困难样本模型学习结果越好。甚至只用 WANLI 训练效果是最好的下面的部分是 WANLI 和 Adversial NLIANLI对比。ANLI 标注了在 MultiNLI、SNLI、FEVER-NLI 上训练的模型无法预测正确预测的例子。实验发现本文生成数据集的思路也可以对 ANLI 构成补充。为了验证生成的数据真的是“难题”让模型学到了 NLI 需要的信息而不是因为别的什么巧合提升了性能作者设计了好几个实验分别证实了不是因为前提中的某些 pattern 造成的性能提升不是因为生成的句子中某几个词影响了预测的结果不会是因为前提和假设语意相似度就能反应推断结果即两句话越相似就越有蕴含关系。于是我们大体上可以判定这个生成数据集的方法是有效的。总结最近越来越多的工作打破了数据越多越好的迷信想法。这篇文章给出了一个靠谱的方法借助 GPT3 生成比人类标注更难的数据可以说是数据工程之路上的又一步前进。但生成的样本仍有很多问题比如会生成重复的话或者自相矛盾的话有些生成的样本对于 NLI 任务也很难判断是否蕴含。另外in-context learning 生成的样本大约有 15% 与 prompt 的类别是不一致的这就不得不引入后续的人的标注。是否能引入约束让机器同时做好选择样本和标注样本这两件事将是后人工作的研究重点。不知道什么时候才能有方法让机器构建数据集的两种思路统一。萌屋作者在北大读研目前做信息抽取对低资源、图网络都非常感兴趣。希望大家在卖萌屋玩得开心 ヾ(ω)o作品推荐老板让我用少量样本 finetune 模型我还有救吗急急急在线等谷歌CNN 击败 Transformer有望成为预训练界新霸主LeCun 却沉默了...中文 BERT 上分新技巧多粒度信息来帮忙恕我直言很多小样本学习的工作就是不切实际的你的 GNN可能 99% 的参数都是冗余的后台回复关键词【入群】加入卖萌屋NLP/IR/Rec与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集 [1] Swabha Swayamdipta, et. al., Dataset Cartography: Mapping and Diagnosing Datasets with Training Dynamics, EMNLP 2020, https://aclanthology.org/2020.emnlp-main.746/
http://www.ihoyoo.com/news/23990.html

相关文章:

  • 网站建设怎么把代码放入网站上学做网站论坛会员
  • 设计网站免费素材ie域名
  • 网站解析出问题 邮件收不到了全国各地网站开发外包
  • 如何查询网站关键词密度界面设计职业技能等级证书
  • 手机app wap网站模板下载广州注销营业执照
  • 西安网站建设案例个人网站名称大全
  • 做个个人网站要怎么做米泉seo快速排名
  • 上海高端网站建设公东海县建设局网站
  • 大连seo建站公司周浦网站建设公司
  • 佛山正规的免费建站备案中网站名称
  • 网站建设开发维护邯郸做网站的公司哪家好
  • 响应式网站有什么好处手机影视网站建设
  • 厦门茶叶公司 网站建设python 做网站
  • 个性flash网站中国最好的域名注册网站
  • flash开发网站wordpress 截取中文
  • 烟台做网站的公司威海做网站公司
  • 做网站要用什么语言深圳华强北二手手机市场
  • 网站建设方案 云盘做网站的公司苏州
  • 网站容易出现的问题网络舆情是什么意思
  • 福建省建设资格注册与管理中心网站冀州做网站的公司
  • wordpress站长外包服务是什么
  • 一般哪些商家需要建设网站网站推广的方案设计怎么写
  • 公司门户网站制作网站根目录相对路径
  • 怎么创网站赚钱吗新公司在哪做网站
  • 上海老闵行网站建设莱芜杂谈莱芜在线论坛
  • 昆山市建设监察大队官方网站简单的商城的网页设计作业
  • 网站开发与管理课程网站分页js
  • 校园网站的作用东红物流网站建设规划书
  • 电子商务网站推广策略国内最近重大新闻2024
  • 沈阳最新通知今天重要消息网站营销seo