ET-BERT具有很好的泛化能力,在5个加密流量分类任务上取得了新的最先进性能,与现有工作相比显著提高了性能。 论文还讨论了相关工作,包括加密流量分类和预训练模型,以及ET-BERT的模型架构、数据报表示、预训练和微调策略。此外,还进行了实验评估,与现有方法进行了比较,并进行了消融研究和解释性分析。最后,论文讨论了这...
ET-BERT是一种基于预训练模型(BERT,BidirectionalEncoder Representations fromTransformers)的加密流量表征模型。BERT是一种在自然语言处理领域取得巨大成功的预训练模型,通过学习上下文相关单词表示,可以捕捉丰富的语义信息。ET-BERT模型利用BERT的思想和框架,将其应用于加密流量分析领域。 2.2 ET-BERT的工作原理 ET-BERT模...
预训练Transformer模型:ET-BERT基于BERT架构,这是一种深度双向Transformer模型,用于从大量未标记数据中学习通用的数据表示。 上下文化数据报表示:ET-BERT通过考虑数据包在网络流中的上下文信息,为加密流量提供了一种上下文化的表示方法。 自监督预训练任务:掩码BURST模型:类似于BERT中的掩码语言模型,ET-BERT被训练来预测...
在预训练阶段,ET-BERT采用了两个任务:掩码BURST模型和同源BURST预测。预训练后,通过微调策略进行下游任务的 fine-tune,这里提出了基于数据包级和流级的微调框架。📍实验评估: 为了验证ET-BERT的有效性,本文在多个数据集上进行了实验评估,并与11种现有方法进行了比较。使用的数据集包括ISCXVPN2016、ISCXVPN2016sub...
First, ET-BERT employs multi-layer attention in large scale unlabelled traffic to learn both inter-datagram contextual and inter-traffic transport relationships. Second, ET-BERT could be applied to a specific scenario to identify traffic types by fine-tuning the labeled encrypted traffic on a small...
ET-BERT原理ET-BERT是基于预训练模型BERT的加密流量表征模型。BERT通过学习上下文相关单词表示,捕捉丰富的语义信息。ET-BERT将BERT的思想和框架应用于加密流量分析领域,包括数据预处理、模型预训练、模型微调和模型测试等关键步骤。工作原理数据预处理:将原始加密流量数据转换为适用于BERT输入的格式,包括分词...
In this paper, we propose a new traffic representation model called Encrypted Traffic Bidirectional Encoder Representations from Transformer (ET-BERT), which pre-trains deep contextualized datagram-level representation from large-scale unlabeled data. The pre-trained model can be fine-tuned on a small...
ET-BERT Note: ⭐ Please leave a STAR if you like this project! ⭐ If you find any incorrect / inappropriate / outdated content, please kindly consider opening an issue or a PR. The repository of ET-BERT, a network traffic classification model on encrypted traffic. ET-BERT is a method...
论文:ET-BERT: A Contextualized Datagram Representation with Pre-training Transformers for Encrypted Traffic Classification链接:O网页链接论文发表于WWW2022,作者来自中科院信工所,提出了一种面向加密流量分类的流量表征模型ET-BERT,该模型采用基于Transformer网络的预训练-微调设计结构,极大改变了传统流量分类研究中依赖...
In this paper,we propose a new traffic representation model called Encrypted Traffic Bidirectional Encoder Representations from Transformer (ET-BERT), which pre-trains deep contextualized datagram-level representation from large-scale unlabeled data. The pre-trained model can be fine-tuned on a small ...