随着人工智能的迅速发展,越来越多的研究将BERT(Bidirectional Encoder Representations from Transformers)等大语言模型应用到了网络安全的检测技术中,邮件检测技术是最热门的应用场景之一。然而考虑到部署大模型所需要的资源和技术能...
详细信息
随着人工智能的迅速发展,越来越多的研究将BERT(Bidirectional Encoder Representations from Transformers)等大语言模型应用到了网络安全的检测技术中,邮件检测技术是最热门的应用场景之一。然而考虑到部署大模型所需要的资源和技术能力,越来越多的客户转向主流的MaaS(Models-as-a-Service,MaaS)服务商。MaaS服务商凭借丰富的预训练模型和强大的训练服务,为用户提供了便捷的模型精调途径。然而,在金融领域,邮件数据往往涉及到公司内部的个人身份、商业机密等信息,直接披露给服务商会导致严重的隐私泄露风险。在模型更新可持续性发展上面临数据隐私泄露、计算资源有限等问题。为了解决这些问题,提出了一种基于拆分学习的邮件检测模型共享方法。该方法将BERT模型拆分为可在客户端上本地执行的部分和在服务器端上训练的部分,通过客户端对训练数据进行编码处理,保证了数据隐私的同时减少了传输到服务器端的数据量。服务器端收到客户端的编码信息后,结合BERT的后半部分进行效率高且安全的模型训练。最终,训练生成的模型更新回客户端,实现了模型的迭代优化和即时更新。
单元测试用于检验软件单一模块的功能是否正确,是软件开发过程中的重要步骤,可以及时发现代码中的缺陷,提升软件的质量和可信度.由于手动编写单元测试费时费力,经常遗漏覆盖重要的代码逻辑.为此,研究者提出单元测试用例自动生成技术.近来,预训练大语言模型(large language models,LLM)已经广泛应用于代码生成相关任务.然而,当前在重要的系统级编程语言C上,还没有相关工作.为了填补这一空白,本文面向C程序设计并实现了基于LLM的单元测试用例生成方法LLM4CUTCG.该方法结合LLM多智能体交互和程序分析技术,客服了LLM内在问题.为了验证方法效果,收集了125个C语言目标程序,并针对这些程序生成测试用例.实验结果表明,LLM4CUTCG生成的测试行覆盖率为91.71%,测试预言正确率为50.05%.其覆盖率优于传统方法符号执行.
暂无评论