网络空间安全综合实践作品结课任务说明
一、任务概述
本课程采用开放式作品设计形式结课,要求学生综合运用网络空间安全专业知识,设计并实现具有创新性和实用性的网络空间安全技术作品。任务参考全国大学生信安安全竞赛-作品赛(CISCN)的赛制标准,鼓励学生探索前沿技术方向,解决实际安全问题。
核心理念:创新性 + 实用性 + 工程化
技术导向:鼓励使用 AI Coding 工具(如 Trae、GitHub Copilot、Cursor等)辅助开发,提高代码质量和开发效率,将更多精力投入到创新设计和核心算法实现上。
二、课程设置与团队要求
本科生课程
- 学时安排:64 学时(课内)+ 适度课外研发时间
- 团队规模:1-4 人一组(对齐信安国赛作品赛的要求
每支参赛队不超过4名学生) - 分工建议:
- 成员 1:系统架构设计 + 后端核心逻辑
- 成员 2:前端界面开发 + 用户交互设计
- 成员 3:核心算法/模型实现 + 测试验证
- 成员 4:文档编写 + 演示准备
- 工作量预期:完整可运行的原型系统,包含核心功能模块
研究生课程
- 学时安排:32 学时(严格限制在课内完成)
- 团队规模:单人独立完成
- 工作量预期:聚焦单一技术点的深入研究与实现,强调技术深度而非系统完整性
三、选题范围与方向
参考 CISCN 作品赛的五大核心领域,结合当前网络空间安全技术前沿,提供以下选题方向供参考:
1. 系统安全(System Security)
- 操作系统安全增强工具(如进程监控、权限管理、安全审计)
- 容器/虚拟化环境安全检测与防护
- 安全代码自动补全或漏洞修复工具(结合 AI)
- 可信执行环境(TEE)应用开发
适合人群:熟悉操作系统原理、系统编程的学生
2. 应用安全(Application Security)
- Web 应用漏洞扫描与检测工具(SQL 注入、XSS、CSRF 等)
- 移动应用安全分析平台(Android/iOS 逆向、权限滥用检测)
- 社交媒体内容风险识别系统(钓鱼链接、恶意信息检测)
- 软件供应链安全检测工具(依赖分析、开源组件漏洞扫描)
适合人群:有 Web 开发或移动开发经验的学生
3. 网络安全(Network Security)
- 入侵检测系统(IDS)或入侵防御系统(IPS)
- DNS 安全监测与异常流量分析
- 物联网设备安全检测工具
- 网络流量可视化与威胁情报分析平台
- VPN/代理安全性评估工具
适合人群:熟悉网络协议、抓包分析的学生
4. 数据安全(Data Security)
- 隐私保护数据发布系统(差分隐私、K-匿名)
- 密文检索与计算平台(同态加密、安全多方计算)
- 数据脱敏与敏感信息识别工具
- 区块链数据存储与溯源系统
- 数据泄露追溯与取证工具
适合人群:有密码学基础或数据处理经验的学生
5. 安全检测(Security Detection)
- 恶意代码检测与分析系统(静态分析、动态沙箱)
- 深度伪造(Deepfake)检测工具
- AIGC 内容真伪鉴别与溯源平台
- 钓鱼邮件/网站识别系统
- 安全配置审计工具(云平台、数据库、Web 服务器)
适合人群:有机器学习或数据分析经验的学生
6. 人工智能安全(AI Security)★ 前沿方向
- 大模型安全检测工具(幻觉检测、对抗样本生成、提示词注入防御)
- AI 生成内容检测与模型溯源
- 联邦学习隐私保护方案实现
- 模型后门检测与防御
- AI 辅助的安全运营(SOC)工具
适合人群:有深度学习或 NLP 经验的学生
四、作品要求与评分标准
4.1 基本要求
功能性要求
- 核心功能完整:作品必须包含至少一个完整可用的核心功能模块
- 可演示性:提供可运行的演示环境(本地部署或在线 Demo)
- 防御性原则:严禁开发具有违法特性的工具,所有作品必须符合国家法律法规
技术要求
- 代码规范:遵循良好的编码规范,代码结构清晰,注释完整
- 技术栈选择:鼓励使用主流开发框架和工具,优先考虑国产技术(如国密算法、国产数据库)
- AI 工具使用:鼓励使用 AI Coding 工具辅助开发,但需保留完整的 AI 工具的使用记录和配置信息备查
- Git 版本控制:要求使用 Git 进行版本控制,每个版本都有详细的提交记录
文档要求
- 文档格式:markdown
- 设计文档:包含需求分析、系统架构、技术选型、核心算法说明
- 用户手册:提供安装部署指南和使用说明
- 开发日志:记录关键技术决策、遇到的问题及解决方案
- AI 工具使用说明:列出使用的 AI 工具、应用场景、效果评估
- AGENTS.md:如果项目使用了 AI 工具,必须在项目根目录下提供规范的 AGENTS.md 文件,用以指导第三方 AI 工具可以从零开始复刻整个项目以及继续二次开发
4.2 评分标准
创新性(30 分)
- 技术创新(15 分):采用新技术、新方法,或对现有技术进行创新性改进
- 应用创新(10 分):解决实际问题的新思路,或开辟新的应用场景
- 设计创新(5 分):系统架构、交互设计的独特性
评分细则:
- 优秀(27-30 分):提出原创性解决方案,技术路线新颖,具有明显创新点
- 良好(21-26 分):在现有技术基础上有明显改进,创新点清晰
- 中等(15-20 分):有一定创新思路,但创新程度有限
- 及格(9-14 分):基本实现功能,创新性不足
- 不及格(0-8 分):完全照搬现有方案,无创新点
实用性(25 分)
- 应用价值(10 分):作品能够解决实际安全问题,具有推广应用前景
- 功能完整度(10 分):核心功能实现完整,系统运行稳定
- 用户体验(5 分):界面友好,操作便捷,文档清晰
评分细则:
- 优秀(23-25 分):功能完整稳定,实际应用价值高,用户体验优秀
- 良好(18-22 分):核心功能完整,有一定应用价值,用户体验良好
- 中等(13-17 分):基本功能可用,应用场景较窄,用户体验一般
- 及格(8-12 分):功能不完整或稳定性差,应用价值有限
- 不及格(0-7 分):功能无法正常运行或无实际应用价值
技术难度(20 分)
- 算法复杂度(10 分):核心算法的技术难度和实现质量
- 工程实现(10 分):系统架构合理性、代码质量、技术栈掌握程度
评分细则:
- 优秀(18-20 分):技术难度高,算法实现优秀,工程质量高
- 良好(14-17 分):有一定技术难度,实现质量良好
- 中等(10-13 分):技术难度适中,实现基本合格
- 及格(6-9 分):技术难度较低,实现质量一般
- 不及格(0-5 分):技术含量低或实现质量差
安全性(10 分)
- 安全分析(4 分):威胁建模完整,对潜在风险有深入分析
- 防护措施(6 分):实施了有效的安全防护机制(如认证、加密、输入验证等)
评分细则:
- 优秀(9-10 分):威胁分析全面,防护措施完善,无明显安全漏洞
- 良好(7-8 分):有安全分析,防护措施覆盖主要风险点
- 中等(5-6 分):有基本的安全意识,实施了部分防护措施
- 及格(3-4 分):安全考虑不足,存在部分安全隐患
- 不及格(0-2 分):完全忽略安全性,存在高危漏洞
文档与展示(15 分)
- 文档完整性(8 分):设计文档、用户手册、开发日志的完整性和质量
- 演示效果(7 分):现场演示的流畅性、讲解的清晰度、问题回答的准确性
评分细则:
- 优秀(14-15 分):文档完整规范,演示流畅清晰,问题回答准确
- 良好(11-13 分):文档较完整,演示基本流畅,能回答大部分问题
- 中等(8-10 分):文档基本齐全,演示有小问题,部分问题回答不清
- 及格(5-7 分):文档不完整,演示不流畅,问题回答困难
- 不及格(0-4 分):文档严重缺失或演示失败
AI 工具应用(10 分)★ 加分项
- 使用合理性(5 分):AI 工具使用场景合理,提高了开发效率
- 效果评估(3 分):能够客观评估 AI 工具的帮助和局限性
- 学习反思(2 分):总结使用 AI 工具的经验和收获
评分细则:
- 优秀(9-10 分):AI 工具使用得当,显著提升开发效率和代码质量,有深入反思
- 良好(7-8 分):合理使用 AI 工具,有一定效果,有使用总结
- 中等(5-6 分):使用 AI 工具但效果一般,缺乏深入思考
- 及格(3-4 分):AI 工具使用较少或不当,效果不明显
- 不及格(0-2 分):未使用 AI 工具或使用不当导致负面效果
说明:AI 工具应用为加分项,合理使用可获得满分,但不使用不扣分(其他项目满分即可)
五、提交物清单
5.1 必交材料
- 源代码
- 完整的项目源代码
- 代码结构清晰,包含必要的注释
- 提供 README 文件,说明项目结构和运行方法
- 设计文档
- 项目背景与需求分析
- 系统架构设计
- 核心算法/技术说明
- 技术选型与实现细节
- 测试与验证结果
- 用户手册
- 环境要求与依赖安装
- 部署与配置指南
- 功能使用说明(含截图)
- 常见问题与解决方案
- 演示视频(5-10 分钟)
- 系统功能演示
- 核心特性展示
- 使用场景说明
- 视频格式:MP4,分辨率不低于 1080p
- AI 工具使用报告
- 使用的 AI 工具清单和配置方法
- 使用效果评估与反思
- 遇到的问题与解决方法
6.2 选交材料(荣誉项)
- 在线 Demo:部署在公网的可访问演示系统
- 竞赛参与证明:参加 CISCN 或其他网络空间安全竞赛的证明材料
六、时间安排与里程碑
本科生课程(64 学时)
| 阶段 | 时间 | 任务内容 | 产出物 |
|---|---|---|---|
| 第 1-2 周 | 8 学时 | 选题调研与需求分析 | 项目选题报告 |
| 第 3-4 周 | 8 学时 | 系统设计与技术调研 | 系统设计文档初稿 |
| 第 5-9 周 | 20 学时 | 核心功能开发(迭代 1-3) | 可运行的原型系统 |
| 第 10-11 周 | 8 学时 | 功能完善与测试 | 完整功能系统 |
| 第 12-13 周 | 8 学时 | 文档编写与演示准备 | 完整文档 + 演示视频 |
| 第 14-16 周 | 12 学时 | 答辩与展示 | 最终答辩 |
课外时间建议:每周额外投入 4-6 小时用于开发和调试
研究生课程(32 学时)
| 阶段 | 时间 | 任务内容 | 产出物 |
|---|---|---|---|
| 第 1 周 | 4 学时 | 选题与文献调研 | 选题报告 |
| 第 2-3 周 | 8 学时 | 技术方案设计 | 技术方案文档 |
| 第 4-6 周 | 12 学时 | 核心功能实现 | 可运行的原型 |
| 第 7 周 | 4 学时 | 测试与文档编写 | 完整文档 |
| 第 8 周 | 4 学时 | 答辩与展示 | 最终答辩 |
课外时间建议:研究生课程无需课外时间投入,所有工作建议均在课内完成
七、答辩与展示要求
答辩形式
- 时间:每组 20-30 分钟(本科生团队 30 分钟,研究生个人 20 分钟)
- 流程:
- PPT 陈述(10-15 分钟):项目背景、设计思路、核心技术、创新点
- 系统演示(5-10 分钟):现场演示核心功能
- 评委提问(5-10 分钟):回答评委的技术问题
答辩内容要点
- 问题定义:解决什么安全问题?为什么重要?
- 解决方案:采用什么技术路线?有何创新点?
- 技术实现:核心算法/模块如何实现?遇到哪些技术难点?
- 效果验证:如何测试和验证?效果如何?
- AI 工具应用:如何使用 AI 工具?带来哪些帮助?
- 未来展望:作品的局限性?未来改进方向?
演示准备
- 环境准备:提前测试演示环境,准备备用方案(录屏视频)
- 数据准备:准备典型的测试数据和演示场景
- 时间控制:严格控制演示时间,突出核心功能
- 应急预案:准备应对演示失败的备用材料
九、常见问题解答
Q1:可以使用开源代码或第三方库吗?
A:可以。鼓励使用成熟的开源框架和第三方库,但必须在文档中明确标注使用的开源组件及其版本。核心创新部分必须是自主设计和实现的。
Q2:AI 工具生成的代码算不算抄袭?
A:不算。AI 工具是合法的辅助手段,但需要满足以下条件:
- 理解 AI 生成代码的逻辑,能够解释和修改
- 在文档中诚实说明 AI 工具的使用范围
- 核心创新点和算法设计必须来自学生自己
Q3:作品必须完全原创吗?
A:不要求完全原创,但必须有创新点。可以在现有技术基础上改进、优化或应用到新场景,关键是要有自己的思考和贡献。
Q4:如果项目在规定时间内无法完成怎么办?
A:采用迭代开发策略,优先保证核心功能可用。评分时会综合考虑完成度、技术难度和创新性,部分完成但有亮点的作品也可能获得高分。
Q5:研究生课程 32 学时真的够吗?
A:研究生课程强调技术深度而非系统完整性。建议选择单一技术点深入研究,如实现一个特定的密码算法、设计一个小型检测工具的核心模块等。合理使用 AI 工具可以显著提高开发效率。
Q6:可以选择与 CISCN 获奖作品相同的题目吗?
A:可以,但必须有自己的创新点和差异化设计。如果完全照搬现有方案,创新性得分会很低。建议在现有作品基础上进行改进或应用到不同场景。