大家好,本系列会从0开始,开发一个基于WebGPU的路径追踪渲染器,使用深度学习降噪、DLSS等AI技术实现实时渲染;并且基于自研的低代码开发平台,让用户可以通过可视化拖拽的方式快速搭建自定义的Web3D引擎
- 回顾目前的技术积累
- 为什么要从0开发WebGPU渲染引擎?
- 下一步
回顾目前的技术积累
我已经在Web3D引擎领域有1万小时开发经验,主要完成了下面的事情:
1.用了4年,全职开发了Wonder:类似于Unity的WebGL引擎和编辑器,发布了v1.1正式版,完成了MVP功能
详细介绍可看:
Wonder 1.0正式版发布—–WebGL 3D引擎和编辑器
2.学习了WebGPU,写了WebGPU的新手教程,熟悉了计算着色器的使用,实现了LBVH算法
详情请见:
WebGPU学习系列目录
后面还作为技术合伙人,拿到了“WebGPU引擎项目”的天使轮千万投资
3.用了大概1年的时间,全职开发了基础的离线路径追踪渲染器,开设了相关的课程(课时长达49小时)
详情请见:
WebGPU+光线追踪Ray Tracing 开发三个月总结
发布了几个版本的代码
离线渲染零基础实战开发培训班
渲染图:
4.用了大概1年的时间,全职开发了Meta3D:Web3D低代码开发平台
Meta3D是开源的Web3D低代码平台,致力于建设共享互助开放的Web3D生态,让Web3D引擎和编辑器开发轻而易举
Meta3D的用户是Web3D引擎或编辑器的开发者,您使用Meta3D来快速搭建Web3D引擎或编辑器
Meta3D已经发布了内测版本
详情请见:
Meta3D官网
5.用了大概1年半的时间,学习了深度学习,开发了一个深度学习框架、开办了深度学习基础班培训课程,并且已经实现了深度学习降噪、DLSS等Demo
详情请见:
我开发的深度学习框架
深度学习基础课系列目录
深度学习降噪专题课
实时渲染前沿研究:在浏览器上实现了Facebook提出的DLSS算法
6.用了3个月,全职完成了《3D编程模式》这本开源书
本书提出了3D引擎和编辑器相关的7个编程模式,详情请见:
我写了本开源书:《3D编程模式》
为什么要从0开发WebGPU渲染引擎?
开发Wonder v1.2版本时暂停了开发,原因是发现有两个问题难以解决:
(1)没有实现全局光照,只有局部光照
因为使用的是WebGL,性能不行,没有计算着色器,所以难以实现高性能的全局光照算法
(2)用户不能扩展编辑器
因为编辑器的UI是React写的,所以不方便由用户扩展
因此,本系列开发的引擎将作为Wonder的v3.0版本,彻底解决这个两个问题。
解决方案如下:
(1)对于第一个问题,我们从WebGL改为WebGPU,从光栅化渲染改为路径追踪渲染,从而实现全局光照。
这里不使用光栅化+光追的混合渲染的好处是可以只用一套算法而实现所有的渲染效果,方便实现和管理。
另外,因为使用深度学习辐射亮度缓存、深度学习降噪、DLSS作为后处理,所以只需要1spp和低分辨率的采样,从而实现实时渲染
更多思考请详见:
实时渲染路径追踪概述
(2)对于第二个问题,因为现在我们基于Meta3D来开发引擎和编辑器,用户可以通过组装不同的组件来实现自定义的引擎和编辑器,并且UI改为用IMGUI实现,从而能容易地实现引擎和编辑器的扩展
下一步
实现下面的功能:
- 基于WebGPU的计算着色器,实现基础的路径追踪器
- 使用LBVH作为加速结构
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京机房租用,IDC机房托管, http://www.fwqtg.net
本文主要记录了MySQL管理端口无法登录的排查过程,以及预防 too many connections 的一些建议。 作者:吕虎桥 爱可生DBA 团队成员,主要负责 DMP 平台和 MySQL 数据库的日常运维及故障处理。 本文来源:原创投稿 爱可生开源社区出…