刚看到NASA和Microchip合作搞新一代抗辐射航天芯片,算力据说要达到现有产品的百倍。作为一个写代码出身的,第一反应是:终于不用在太空用“古董级”CPU硬跑AI了。现在的星上计算平台很多还是十几年前的架构,做个简单的图像识别都要喘半天,大量数据只能传回地面处理,延迟动辄几分钟到几小时。
如果百倍算力真能落地,在轨实时推理就不是空话。火星车自主分析地质、深空探测器自己规划路径,甚至卫星群协同决策,响应速度会完全变样。但高性能和低功耗的平衡本来就是航天电子的老大难问题,现在还要叠加AI的计算密度需求,这个工程实现值得商榷。嗯
我比较担心的是,先进制程芯片在辐射环境下更容易出现单粒子翻转,AI又对数据错误特别敏感。5nm晶体管遇到高能粒子会不会直接“失忆”?加固设计、冗余计算、容错算法,这些开销会不会吃掉大部分算力增益?
韩国三星SDS刚拿下国家AI算力项目,算力竞赛从地面打到太空了,대박。说到底,抗辐射加固和算力密度还是零和博弈?