网络空间安全综合实践作品结课任务说明

一、任务概述

本课程采用开放式作品设计形式结课,要求学生综合运用网络空间安全专业知识,设计并实现具有创新性和实用性的网络空间安全技术作品。任务参考全国大学生信安安全竞赛-作品赛(CISCN)的赛制标准,鼓励学生探索前沿技术方向,解决实际安全问题。

核心理念:创新性 + 实用性 + 工程化

技术导向:鼓励使用 AI Coding 工具(如 Trae、GitHub Copilot、Cursor等)辅助开发,提高代码质量和开发效率,将更多精力投入到创新设计和核心算法实现上。



二、课程设置与团队要求

本科生课程

  • 学时安排:64 学时(课内)+ 适度课外研发时间
  • 团队规模:1-4 人一组(对齐信安国赛作品赛的要求 每支参赛队不超过4名学生
  • 分工建议
  • 成员 1:系统架构设计 + 后端核心逻辑
  • 成员 2:前端界面开发 + 用户交互设计
  • 成员 3:核心算法/模型实现 + 测试验证
  • 成员 4:文档编写 + 演示准备
  • 工作量预期:完整可运行的原型系统,包含核心功能模块

研究生课程

  • 学时安排:32 学时(严格限制在课内完成)
  • 团队规模:单人独立完成
  • 工作量预期:聚焦单一技术点的深入研究与实现,强调技术深度而非系统完整性

三、选题范围与方向

参考 CISCN 作品赛的五大核心领域,结合当前网络空间安全技术前沿,提供以下选题方向供参考:

1. 系统安全(System Security)

  • 操作系统安全增强工具(如进程监控、权限管理、安全审计)
  • 容器/虚拟化环境安全检测与防护
  • 安全代码自动补全或漏洞修复工具(结合 AI)
  • 可信执行环境(TEE)应用开发

适合人群:熟悉操作系统原理、系统编程的学生

2. 应用安全(Application Security)

  • Web 应用漏洞扫描与检测工具(SQL 注入、XSS、CSRF 等)
  • 移动应用安全分析平台(Android/iOS 逆向、权限滥用检测)
  • 社交媒体内容风险识别系统(钓鱼链接、恶意信息检测)
  • 软件供应链安全检测工具(依赖分析、开源组件漏洞扫描)

适合人群:有 Web 开发或移动开发经验的学生

3. 网络安全(Network Security)

  • 入侵检测系统(IDS)或入侵防御系统(IPS)
  • DNS 安全监测与异常流量分析
  • 物联网设备安全检测工具
  • 网络流量可视化与威胁情报分析平台
  • VPN/代理安全性评估工具

适合人群:熟悉网络协议、抓包分析的学生

4. 数据安全(Data Security)

  • 隐私保护数据发布系统(差分隐私、K-匿名)
  • 密文检索与计算平台(同态加密、安全多方计算)
  • 数据脱敏与敏感信息识别工具
  • 区块链数据存储与溯源系统
  • 数据泄露追溯与取证工具

适合人群:有密码学基础或数据处理经验的学生

5. 安全检测(Security Detection)

  • 恶意代码检测与分析系统(静态分析、动态沙箱)
  • 深度伪造(Deepfake)检测工具
  • AIGC 内容真伪鉴别与溯源平台
  • 钓鱼邮件/网站识别系统
  • 安全配置审计工具(云平台、数据库、Web 服务器)

适合人群:有机器学习或数据分析经验的学生

6. 人工智能安全(AI Security)★ 前沿方向

  • 大模型安全检测工具(幻觉检测、对抗样本生成、提示词注入防御)
  • AI 生成内容检测与模型溯源
  • 联邦学习隐私保护方案实现
  • 模型后门检测与防御
  • AI 辅助的安全运营(SOC)工具

适合人群:有深度学习或 NLP 经验的学生


四、作品要求与评分标准

4.1 基本要求

功能性要求

  1. 核心功能完整:作品必须包含至少一个完整可用的核心功能模块
  2. 可演示性:提供可运行的演示环境(本地部署或在线 Demo)
  3. 防御性原则:严禁开发具有违法特性的工具,所有作品必须符合国家法律法规

技术要求

  1. 代码规范:遵循良好的编码规范,代码结构清晰,注释完整
  2. 技术栈选择:鼓励使用主流开发框架和工具,优先考虑国产技术(如国密算法、国产数据库)
  3. AI 工具使用:鼓励使用 AI Coding 工具辅助开发,但需保留完整的 AI 工具的使用记录和配置信息备查
  4. Git 版本控制:要求使用 Git 进行版本控制,每个版本都有详细的提交记录

文档要求

  1. 文档格式:markdown
  2. 设计文档:包含需求分析、系统架构、技术选型、核心算法说明
  3. 用户手册:提供安装部署指南和使用说明
  4. 开发日志:记录关键技术决策、遇到的问题及解决方案
  5. AI 工具使用说明:列出使用的 AI 工具、应用场景、效果评估
  6. AGENTS.md:如果项目使用了 AI 工具,必须在项目根目录下提供规范的 AGENTS.md 文件,用以指导第三方 AI 工具可以从零开始复刻整个项目以及继续二次开发

4.2 评分标准

创新性(30 分)

  • 技术创新(15 分):采用新技术、新方法,或对现有技术进行创新性改进
  • 应用创新(10 分):解决实际问题的新思路,或开辟新的应用场景
  • 设计创新(5 分):系统架构、交互设计的独特性

评分细则

  • 优秀(27-30 分):提出原创性解决方案,技术路线新颖,具有明显创新点
  • 良好(21-26 分):在现有技术基础上有明显改进,创新点清晰
  • 中等(15-20 分):有一定创新思路,但创新程度有限
  • 及格(9-14 分):基本实现功能,创新性不足
  • 不及格(0-8 分):完全照搬现有方案,无创新点

实用性(25 分)

  • 应用价值(10 分):作品能够解决实际安全问题,具有推广应用前景
  • 功能完整度(10 分):核心功能实现完整,系统运行稳定
  • 用户体验(5 分):界面友好,操作便捷,文档清晰

评分细则

  • 优秀(23-25 分):功能完整稳定,实际应用价值高,用户体验优秀
  • 良好(18-22 分):核心功能完整,有一定应用价值,用户体验良好
  • 中等(13-17 分):基本功能可用,应用场景较窄,用户体验一般
  • 及格(8-12 分):功能不完整或稳定性差,应用价值有限
  • 不及格(0-7 分):功能无法正常运行或无实际应用价值

技术难度(20 分)

  • 算法复杂度(10 分):核心算法的技术难度和实现质量
  • 工程实现(10 分):系统架构合理性、代码质量、技术栈掌握程度

评分细则

  • 优秀(18-20 分):技术难度高,算法实现优秀,工程质量高
  • 良好(14-17 分):有一定技术难度,实现质量良好
  • 中等(10-13 分):技术难度适中,实现基本合格
  • 及格(6-9 分):技术难度较低,实现质量一般
  • 不及格(0-5 分):技术含量低或实现质量差

安全性(10 分)

  • 安全分析(4 分):威胁建模完整,对潜在风险有深入分析
  • 防护措施(6 分):实施了有效的安全防护机制(如认证、加密、输入验证等)

评分细则

  • 优秀(9-10 分):威胁分析全面,防护措施完善,无明显安全漏洞
  • 良好(7-8 分):有安全分析,防护措施覆盖主要风险点
  • 中等(5-6 分):有基本的安全意识,实施了部分防护措施
  • 及格(3-4 分):安全考虑不足,存在部分安全隐患
  • 不及格(0-2 分):完全忽略安全性,存在高危漏洞

文档与展示(15 分)

  • 文档完整性(8 分):设计文档、用户手册、开发日志的完整性和质量
  • 演示效果(7 分):现场演示的流畅性、讲解的清晰度、问题回答的准确性

评分细则

  • 优秀(14-15 分):文档完整规范,演示流畅清晰,问题回答准确
  • 良好(11-13 分):文档较完整,演示基本流畅,能回答大部分问题
  • 中等(8-10 分):文档基本齐全,演示有小问题,部分问题回答不清
  • 及格(5-7 分):文档不完整,演示不流畅,问题回答困难
  • 不及格(0-4 分):文档严重缺失或演示失败

AI 工具应用(10 分)★ 加分项

  • 使用合理性(5 分):AI 工具使用场景合理,提高了开发效率
  • 效果评估(3 分):能够客观评估 AI 工具的帮助和局限性
  • 学习反思(2 分):总结使用 AI 工具的经验和收获

评分细则

  • 优秀(9-10 分):AI 工具使用得当,显著提升开发效率和代码质量,有深入反思
  • 良好(7-8 分):合理使用 AI 工具,有一定效果,有使用总结
  • 中等(5-6 分):使用 AI 工具但效果一般,缺乏深入思考
  • 及格(3-4 分):AI 工具使用较少或不当,效果不明显
  • 不及格(0-2 分):未使用 AI 工具或使用不当导致负面效果

说明:AI 工具应用为加分项,合理使用可获得满分,但不使用不扣分(其他项目满分即可)


五、提交物清单

5.1 必交材料

  1. 源代码
    • 完整的项目源代码
    • 代码结构清晰,包含必要的注释
    • 提供 README 文件,说明项目结构和运行方法
  2. 设计文档
    • 项目背景与需求分析
    • 系统架构设计
    • 核心算法/技术说明
    • 技术选型与实现细节
    • 测试与验证结果
  3. 用户手册
    • 环境要求与依赖安装
    • 部署与配置指南
    • 功能使用说明(含截图)
    • 常见问题与解决方案
  4. 演示视频(5-10 分钟)
    • 系统功能演示
    • 核心特性展示
    • 使用场景说明
    • 视频格式:MP4,分辨率不低于 1080p
  5. AI 工具使用报告
    • 使用的 AI 工具清单和配置方法
    • 使用效果评估与反思
    • 遇到的问题与解决方法

6.2 选交材料(荣誉项)

  1. 在线 Demo:部署在公网的可访问演示系统
  2. 竞赛参与证明:参加 CISCN 或其他网络空间安全竞赛的证明材料

六、时间安排与里程碑

本科生课程(64 学时)

阶段 时间 任务内容 产出物
第 1-2 周 8 学时 选题调研与需求分析 项目选题报告
第 3-4 周 8 学时 系统设计与技术调研 系统设计文档初稿
第 5-9 周 20 学时 核心功能开发(迭代 1-3) 可运行的原型系统
第 10-11 周 8 学时 功能完善与测试 完整功能系统
第 12-13 周 8 学时 文档编写与演示准备 完整文档 + 演示视频
第 14-16 周 12 学时 答辩与展示 最终答辩

课外时间建议:每周额外投入 4-6 小时用于开发和调试

研究生课程(32 学时)

阶段 时间 任务内容 产出物
第 1 周 4 学时 选题与文献调研 选题报告
第 2-3 周 8 学时 技术方案设计 技术方案文档
第 4-6 周 12 学时 核心功能实现 可运行的原型
第 7 周 4 学时 测试与文档编写 完整文档
第 8 周 4 学时 答辩与展示 最终答辩

课外时间建议:研究生课程无需课外时间投入,所有工作建议均在课内完成


七、答辩与展示要求

答辩形式

  • 时间:每组 20-30 分钟(本科生团队 30 分钟,研究生个人 20 分钟)
  • 流程
  • PPT 陈述(10-15 分钟):项目背景、设计思路、核心技术、创新点
  • 系统演示(5-10 分钟):现场演示核心功能
  • 评委提问(5-10 分钟):回答评委的技术问题

答辩内容要点

  1. 问题定义:解决什么安全问题?为什么重要?
  2. 解决方案:采用什么技术路线?有何创新点?
  3. 技术实现:核心算法/模块如何实现?遇到哪些技术难点?
  4. 效果验证:如何测试和验证?效果如何?
  5. AI 工具应用:如何使用 AI 工具?带来哪些帮助?
  6. 未来展望:作品的局限性?未来改进方向?

演示准备

  1. 环境准备:提前测试演示环境,准备备用方案(录屏视频)
  2. 数据准备:准备典型的测试数据和演示场景
  3. 时间控制:严格控制演示时间,突出核心功能
  4. 应急预案:准备应对演示失败的备用材料

九、常见问题解答

Q1:可以使用开源代码或第三方库吗?

A:可以。鼓励使用成熟的开源框架和第三方库,但必须在文档中明确标注使用的开源组件及其版本。核心创新部分必须是自主设计和实现的。

Q2:AI 工具生成的代码算不算抄袭?

A:不算。AI 工具是合法的辅助手段,但需要满足以下条件:

  • 理解 AI 生成代码的逻辑,能够解释和修改
  • 在文档中诚实说明 AI 工具的使用范围
  • 核心创新点和算法设计必须来自学生自己

Q3:作品必须完全原创吗?

A:不要求完全原创,但必须有创新点。可以在现有技术基础上改进、优化或应用到新场景,关键是要有自己的思考和贡献。

Q4:如果项目在规定时间内无法完成怎么办?

A:采用迭代开发策略,优先保证核心功能可用。评分时会综合考虑完成度、技术难度和创新性,部分完成但有亮点的作品也可能获得高分。

Q5:研究生课程 32 学时真的够吗?

A:研究生课程强调技术深度而非系统完整性。建议选择单一技术点深入研究,如实现一个特定的密码算法、设计一个小型检测工具的核心模块等。合理使用 AI 工具可以显著提高开发效率。

Q6:可以选择与 CISCN 获奖作品相同的题目吗?

A:可以,但必须有自己的创新点和差异化设计。如果完全照搬现有方案,创新性得分会很低。建议在现有作品基础上进行改进或应用到不同场景。