基于持续集成的跨语言基准测试平台

本项目构建一个自动化流程,用于生成和运行基准测试,并发布结果。

特点

  • 可比性: 所有基准测试结果均在相同的环境中通过持续集成(CI)生成,确保结果的可比性。
  • 自动化: 基准测试的运行和结果发布均已实现自动化。
  • 持续更新: 代码库的每次更新都会触发CI流程,自动重新生成并发布基准测试结果。

架构

  • 所有基准测试用例均在项目代码库中定义。
  • 基准测试的实现参考了The Computer Language Benchmarks Game。
  • 项目使用静态网站生成器构建网站,并托管于GitHub Pages,以提高搜索引擎优化(SEO)。

开发

环境搭建

cd bench
dotnet run -p tool --task build 

更多信息

项目代码库:https://github.com/hanabi1224/Another-Benchmarks-Game.git

folder
Another-Benchmarks-Game:计算机语言基准测试游戏的另一种实现 预估大小:242个文件
file
.babelrc 212B
file
app.cabal 714B
file
gradlew.bat 3KB
file
nlog.config 1KB
file
Program.cs 23KB
file
ProcessUtils.cs 16KB
file
10000_out 26B
file
8.cs 5KB
file
1000_out 26B
file
2.cs 8KB
file
27_out 45B
file
30_out 45B
file
1000_out 10KB
file
5.cs 6KB
file
10_out 223B
file
100_out 12B
file
7_out 24B
file
9.cs 4KB
file
10_out 26B
file
200_out 5KB
zip 文件大小:901.27KB