当前位置: 首页 > news >正文

机械网站开发方案苏州网站建设教程

机械网站开发方案,苏州网站建设教程,邢台网站定制,网站备案怎么更改吗TIFS期刊 A类期刊 新知识点 Introduction Linguistic Steganalysis in Few-Shot Scenario模型是个预训练方法。 评估了四种文本加密分析方法#xff0c;TS-CSW、TS-RNN、Zou、SeSy#xff0c;用于分析和训练的样本都由VAE-Stego生产(编码方式使用AC编码)。 实验是对比在少样…TIFS期刊 A类期刊 新知识点 Introduction Linguistic Steganalysis in Few-Shot Scenario模型是个预训练方法。 评估了四种文本加密分析方法TS-CSW、TS-RNN、Zou、SeSy用于分析和训练的样本都由VAE-Stego生产(编码方式使用AC编码)。 实验是对比在少样本的情况下各个模型的效果当训练样本少于10的时候(few-shot)上面提到的TS-CSW和TS-RNN的表现都不好。 Zou和SeSy的方法用了pre-trained language mode当训练标记样本到达1000的时候表现更好。 TS-CSW和TS-RNN的方法当样本达到10000的时候表现也很好。 表明现有的分析网络需要大量样本作为训练的铺垫。 之前的文章 Few-shot text steganalysis based on attentional meta-learner[30]这篇文章考虑了few-shot的问题但是作者的评价是 Although this linguistic steganalysis method performs well when combined with multi-task scenario, there are some problems in practical applications. Firstly, this method may not be able to demonstrate its advantages when there are too few labeled samples to constitute multi-task, which limits its scope of application. Secondly, it is time-consuming and labor-intensive to label samples accurately with various embedding rates and steganography algorithms为了分析现实世界的实用场景这篇文章只关注只有少量标记样本的实际场景(practiacl scenario)。 实验 第一阶段用 labeled data 去 fune-tune pretrained language model 第二阶段用 unlabeled data去进行 self-training(这个没太懂场景和效果问题) 总结的文本分析所用的方法和模型。 这是作者所用的模型她提出了一个概念是在slef-training的模型中通过无标签(不知道是否是stego还是正常的cover)的文本来进行分析选择more obvious and easier samples去标记pseudo-labeled(伪标记) dataset--------- D p D_p Dp​。 D p D_p Dp​便于后续的训练过程提取和学习足够和更明显的特征逐渐澄清分布差异。我们可以重复这个过程然后得到了一种有效的少镜头语言步进分析方法。 basic model 对于基础模型通过已标记数据集 D l D_l Dl​来训练模型 B W ( ∗ ) B^W(*) BW(∗)(Bert)。 训练的损失函数是 N s N_s Ns​是batch size,y_hat是预测结果y是真实结果。 Self-Training Framework 其中的MC dropout是一种选择模型确定性较大的label给数据贴上。(个人理解类似于max_pooling通过多次的选取特征明显的值来获取模型最能分辨的一些语句)。 MC dropout 其中 6 7 8 9 10几个公式在论文中展示了效果就是从无标签的文本中选出最大特征的数据(这种数据对于basic model的训练效果最佳)从而实现对于整个模型的正循环的训练。 实验 dataset 使用IMDB和Twitter、News的文本然后使用BERT-LSTM的架构训练一个VAE-stego的加密模型对于每个模型都使用了HC(Huffman Coding)和AC(Arithmetic Coding)两种编码方式来实现。 选择了嵌入率是HC的candidate pool size 设为了32每个单词的平均嵌入bit约为5。 AC的candidate pool size 设为了dictionary size每个单词的平均嵌入bit约为7。 experimental settings 实验模型使用的bert12层transformerhidden dimension为768 最大句子长度是128。 相同的steganalysis methods做了对比试验都使用bert作为基本模型使用了 ZouSeSy和FSStega进行了对比在训练labeled sample小于等于10的情况下作者的准确率(acc)要高于其他几个10%左右。 performance on unlabeled dataset 为了模拟真实场景(因为真实场景所含有的加密的样本比较少)作者把Cover:Stego的比例从21调整到10。然后在IMDB数据集上面的AC编码进行训练。由于训练的样本较少基础模型不稳地所以这次训练选择使用30个banlance labeled samples对之前的basic model进行再训练然后再用unbalanced(正负样本比例不均衡) 和 unlabeled dataset对self-training进行训练。 Performance on Unlabeled Datasets With Mixed Language Styles 把三个数据集混合进行训练按占比不同做新的数据集训练然后按照训练的步骤再进行实验分类。 a是只进行basic model训练后的分类结果b是通过unlabeled数据集训练后的分类结果c是把a和b训练好的最终模型来进行分类的结果(b产生的sample再进行a训练把a的模型训练到最佳)。 Generality Test 一共六个数据集选用了IMDB的AC编码的数据集来进行对其他5个数据集的验证测试。 Efficiency Test 训练好的模型做加密分析检测一次所需要的时间/内(显)存。 Hyper-Parameters Adoption 其中 θ θ θ是当unlableed产生假标记的数据后labeled的数据(原始数据)再放进去训练basic model的比例(100%)则为完全的有监督学习。 其中的 α α α是等式9的可更改选择加标签数据的比例。 作者做的实验是真的全面佩服
http://www.ho-use.cn/article/10820249.html

相关文章:

  • 郑州网站推广排名wordpress编辑写文章失败
  • 网站建设项目实践报告书网络seo优化平台
  • cookie做网站访问量wordpress自动抓取
  • 免费货源在线网站跨境电商平台开发
  • 产品展示网站方案网站建设工作策划方案
  • 最新网站建设高端个人网站
  • 山亭建设局网站58同城做网站被骗
  • 建筑资料网站大全如何简单制作生理盐水
  • 公司企业免费网站系统查找北京国互网网站建设
  • 做招聘信息的网站有哪些做博客网站怎么赚钱
  • 电商网站首页图片郑州建网站
  • wordpress多站点不同主题微营销
  • 网站导航条图片素材wordpress首页设置成文章还是页面
  • 做网站的合同范文怎么做网页中不显示项目符号
  • 自己搭建网站怎么搭建有域名了如何建设网站
  • 做网站可以没有框架吗宣城市建设监督管理局网站首页
  • 做网站常见问题模板纳米加工平台
  • 重庆网站制作设计网站动画效果怎么做
  • 视频会议系统直播聊天网站开发建设游戏运营网站开展工作内容
  • 多用户旅游网站开发如何建设淘宝客网站
  • 互联网网站类型姜堰网络推广怎么做
  • 建立一个网站怎么做taoyin8 wordpress
  • 设计公司企业网站详情拟在建项目信息网官网
  • 网站建设 标书wordpress 建站五分钟
  • 建什么样的网站好推广文章的步骤
  • vue做网站对seowordpress 卡
  • 太原网站建设公司招聘不定期更新域名
  • 在哪做网站关键词wordpress后台js加载时间过长
  • 做我女朋友的网站wordpress文章阅读数更改
  • wordpress网站地图织梦网站用户名不存在