ET-BERT具有很好的泛化能力,在5个加密流量分类任务上取得了新的最先进性能,与现有工作相比显著提高了性能。 论文还讨论了相关工作,包括加密流量分类和预训练模型,以及ET-BERT的模型架构、数据报表示、预训练和微调策略。此外,还进行了实验评估,与现有方法进行了比较,并进行了消融研究和解释性分析。最后,论文讨论了这...
预训练Transformer模型:ET-BERT基于BERT架构,这是一种深度双向Transformer模型,用于从大量未标记数据中学习通用的数据表示。 上下文化数据报表示:ET-BERT通过考虑数据包在网络流中的上下文信息,为加密流量提供了一种上下文化的表示方法。 自监督预训练任务:掩码BURST模型:类似于BERT中的掩码语言模型,ET-BERT被训练来预测...
1 ET-BERT性能 1.1 数据集使用 论文涉及到7个数据集的使用,我们复现使用了4个数据集:USTC-TFC、ISCV-VPN-Service、ISCV-VPN-App、App60,其中App60是新加的数据集,共包含60个标签。 图1 论文使用的数据集 1.2 结果展示 1) 不同数据集上的比较。ET-BERT在4个数据集上计算了acc、平均精确率、平均召回率和...
ET-BERT原理ET-BERT是基于预训练模型BERT的加密流量表征模型。BERT通过学习上下文相关单词表示,捕捉丰富的语义信息。ET-BERT将BERT的思想和框架应用于加密流量分析领域,包括数据预处理、模型预训练、模型微调和模型测试等关键步骤。工作原理数据预处理:将原始加密流量数据转换为适用于BERT输入的格式,包括分词...
论文:ET-BERT: A Contextualized Datagram Representation with Pre-training Transformers for Encrypted Traffic Classification链接:O网页链接论文发表于WWW2022,作者来自中科院信工所,提出了一种面向加密流量分类的流量表征模型ET-BERT,该模型采用基于Transformer网络的预训练-微调设计结构,极大改变了传统流量分类研究中依赖...
这篇论文提出了一种新的流量表示模型ET-BERT,它利用预训练的Transformer模型来处理加密流量数据,以实现更准确的流量分类。 这篇文章提出的创新主要体现在以下几个方面: ET-BERT模型:文章提出了一种新的流量表示模型,即ET-BERT(Encrypted Traffic BERT),它是基于预训练的Transformer模型,专门用于处理加密流量数据。这种...
这篇论文提出了一种新的加密流量表示模型,名为ET-BERT(Encrypted Traffic Bidirectional Encoder Representations from Transformer),它通过预训练大型未标记数据来学习深度上下文化的数据报级别表示。预训练模型可以在少量特定任务标记数据上进行微调,并在五个加密流量分类任务上实现了最先进的性能,显著提高了ISCX-VPN-Servi...
这篇论文提出了一种新的流量表示模型ET-BERT,它利用预训练的Transformer模型来处理加密流量数据,以实现更准确的流量分类。 这篇文章提出的创新主要体现在以下几个方面: ET-BERT模型:文章提出了一种新的流量表示模型,即ET-BERT(Encrypted Traffic BERT),它是基于预训练的Transformer模型,专门用于处理加密流量数据。这种...