- IC型号
企业档案
- 相关证件:
 
- 会员类型:普通会员
- 地址:深圳市棕科云端大厦1B栋15楼
- 传真:0755-84535970
- E-mail:yingqingmei@hxjt.wecom.work
产品分类
华雄芯资讯:Meta首度公开自研AI芯片,估2025年正式问世
发布时间: 2023/5/22 10:06:09 | 85 次阅读
华雄集团董事长朱峻咸分析,Facebook母公司Meta加入Google、亚马逊、微软的半导体大战,首度公开自行研发AI芯片进展。
据华雄集团资料显示,Meta正在打造特别为AI设计的基础设施架构,涵盖硬件与软件堆栈的各个层面,以及串联这些技术的定制化网络,包括Meta款用于执行AI模型的定制芯片、针对AI化的数据中心设计,以及目前进展至第二阶段的AI超级计算机。
名为Meta Trainingand Inference Accelerator(MTIA)的全新ASIC芯片,是Meta款自行研发的定制芯片,宣称运算效能和处理效率胜过CPU,专门用于处理与AI推荐系统相关的工作,帮助用户找出贴文内容并更快呈现在你眼前。Meta在2020年开发出代MTIA(MTIA v1),采用台积电7纳米制程。而据国外媒体TechCrunch报道,MTIA至少要到2025年才会正式问世、投入服务当中。
除了MTIA,Meta自行研发另一款芯片,是称为Meta Scalable Video Processor(MSVP)的ASIC芯片,以支持持续成长的影音内容处理需求,终希望将大部分成熟且稳定的影音内容处理工作交由MSVP执行。
至于Meta新一代数据中心设计除了将支持现有产品以外,更将协助未来新的AI硬件展开训练和推理。新的数据中心针对AI优化,支持液体冷却式AI硬件设备和高效AI网络,将数千个AI芯片串联在一起形成数据中心规模的AI训练集,能与MSVP等新硬件设备相辅相成。
Meta的Research Super Cluster(RSC)AI超级计算机,可训练新一代大型AI模型以支持新的AR工具、内容理解系统、实时翻译技术等等,它配备16000个Nvidia A100 Tensor Core GPU(2000个Nvidia DGX A100系统)。从去年开始RSC参与各项研究计划,例如Meta推动的大型语言模型LLaMA(Large Language Model Meta AI)。
除了日前宣布将生成式AI运用在广告工具上,Meta也计划调整编程编写方式,通过内部开发的生成式AI程序编写辅助工具Code Compose,提升开发者的工作效率。
自2016年以来,Google一直在设计和部署称为Tensor Processing Units(TPU)的AI芯片,用于训练生成式AI系统如PaLM-2、Imagen等,亚马逊则向AWS客户提供AWS Trainium、AWS Inferentia两款自研芯片进行应用,微软也传出正与AMD合作开发一种名为Athena的AI芯片。
Meta过去主要使用CPU以及用于加速AI算法而设计的定制芯片来处理AI运算工作,为了扭转局面,Meta开始自行研发客制化芯片,并与同样向AI领域投入大量资源的Google、亚马逊、微软等竞争。
当前,尽管DDR4占据DRAM领域大部分市场份额,但DDR5作为存储领域的新产品,正逐渐成为各大厂商竞逐的焦点。业界认为,近两年将会是DDR5高速发展期,尤其是从今年开始,DDR5渗透率将大幅提升。
TrendForce集邦咨询分析师吴雅婷表示,随着时间的推移,预计自2023年起,服务器端将逐步导入DDR5,在server新平台的带动下,将会拉高DDR5比重。而随着DDR
据华雄集团资料显示,Meta正在打造特别为AI设计的基础设施架构,涵盖硬件与软件堆栈的各个层面,以及串联这些技术的定制化网络,包括Meta款用于执行AI模型的定制芯片、针对AI化的数据中心设计,以及目前进展至第二阶段的AI超级计算机。
名为Meta Trainingand Inference Accelerator(MTIA)的全新ASIC芯片,是Meta款自行研发的定制芯片,宣称运算效能和处理效率胜过CPU,专门用于处理与AI推荐系统相关的工作,帮助用户找出贴文内容并更快呈现在你眼前。Meta在2020年开发出代MTIA(MTIA v1),采用台积电7纳米制程。而据国外媒体TechCrunch报道,MTIA至少要到2025年才会正式问世、投入服务当中。
除了MTIA,Meta自行研发另一款芯片,是称为Meta Scalable Video Processor(MSVP)的ASIC芯片,以支持持续成长的影音内容处理需求,终希望将大部分成熟且稳定的影音内容处理工作交由MSVP执行。
至于Meta新一代数据中心设计除了将支持现有产品以外,更将协助未来新的AI硬件展开训练和推理。新的数据中心针对AI优化,支持液体冷却式AI硬件设备和高效AI网络,将数千个AI芯片串联在一起形成数据中心规模的AI训练集,能与MSVP等新硬件设备相辅相成。
Meta的Research Super Cluster(RSC)AI超级计算机,可训练新一代大型AI模型以支持新的AR工具、内容理解系统、实时翻译技术等等,它配备16000个Nvidia A100 Tensor Core GPU(2000个Nvidia DGX A100系统)。从去年开始RSC参与各项研究计划,例如Meta推动的大型语言模型LLaMA(Large Language Model Meta AI)。
除了日前宣布将生成式AI运用在广告工具上,Meta也计划调整编程编写方式,通过内部开发的生成式AI程序编写辅助工具Code Compose,提升开发者的工作效率。
自2016年以来,Google一直在设计和部署称为Tensor Processing Units(TPU)的AI芯片,用于训练生成式AI系统如PaLM-2、Imagen等,亚马逊则向AWS客户提供AWS Trainium、AWS Inferentia两款自研芯片进行应用,微软也传出正与AMD合作开发一种名为Athena的AI芯片。
Meta过去主要使用CPU以及用于加速AI算法而设计的定制芯片来处理AI运算工作,为了扭转局面,Meta开始自行研发客制化芯片,并与同样向AI领域投入大量资源的Google、亚马逊、微软等竞争。
当前,尽管DDR4占据DRAM领域大部分市场份额,但DDR5作为存储领域的新产品,正逐渐成为各大厂商竞逐的焦点。业界认为,近两年将会是DDR5高速发展期,尤其是从今年开始,DDR5渗透率将大幅提升。
TrendForce集邦咨询分析师吴雅婷表示,随着时间的推移,预计自2023年起,服务器端将逐步导入DDR5,在server新平台的带动下,将会拉高DDR5比重。而随着DDR