基于持续集成的跨语言基准测试平台
本项目构建一个自动化流程,用于生成和运行基准测试,并发布结果。
特点
- 可比性: 所有基准测试结果均在相同的环境中通过持续集成(CI)生成,确保结果的可比性。
- 自动化: 基准测试的运行和结果发布均已实现自动化。
- 持续更新: 代码库的每次更新都会触发CI流程,自动重新生成并发布基准测试结果。
架构
- 所有基准测试用例均在项目代码库中定义。
- 基准测试的实现参考了The Computer Language Benchmarks Game。
- 项目使用静态网站生成器构建网站,并托管于GitHub Pages,以提高搜索引擎优化(SEO)。
开发
环境搭建
cd bench
dotnet run -p tool --task build
更多信息
项目代码库:https://github.com/hanabi1224/Another-Benchmarks-Game.git
Another-Benchmarks-Game:计算机语言基准测试游戏的另一种实现
预估大小:242个文件
.babelrc
212B
app.cabal
714B
gradlew.bat
3KB
nlog.config
1KB
Program.cs
23KB
ProcessUtils.cs
16KB
10000_out
26B
8.cs
5KB
1000_out
26B
2.cs
8KB
901.27KB
文件大小:
评论区