玳羽
2024-09-30
这篇文章不错,转发给大家看
@经济观察报:
国产算力两大难题都有了解决方案
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":355120525131992,"tweetId":"355120525131992","gmtCreate":1727708813605,"gmtModify":1727710668307,"author":{"id":3576200896500765,"idStr":"3576200896500765","authorId":3576200896500765,"authorIdStr":"3576200896500765","name":"玳羽","avatar":"https://static.laohu8.com/default-avatar.jpg","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":2,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":0,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body>这篇文章不错,转发给大家看</body></html>","htmlText":"<html><head></head><body>这篇文章不错,转发给大家看</body></html>","text":"这篇文章不错,转发给大家看","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/355120525131992","repostId":354503614214144,"repostType":1,"repost":{"magic":2,"id":354503614214144,"tweetId":"354503614214144","gmtCreate":1727578508000,"gmtModify":1727580088126,"author":{"id":3577852034187700,"idStr":"3577852034187700","authorId":3577852034187700,"authorIdStr":"3577852034187700","name":"经济观察报","avatar":"https://static.tigerbbs.com/f64ac2aa784ef0f271ddeb45c7dc72bc","vip":6,"userType":6,"introduction":"经济观察报官方账号","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":6052,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"title":"国产算力两大难题都有了解决方案","html":"<html><head></head><body><div>\n \n</div>\n<p><strong>经济观察网 记者 沈怡然 </strong>国产算力长期面临两大问题:第一,国产GPU缺乏生态支持难以替代英伟达的GPU;第二,如何在国产GPU单卡性能有限的条件下,通过其他技术手段提升整体算力水平。</p>\n<p>在9月27日至29日举行的2024年中国算力大会上,产业各方着重探讨解决办法。</p>\n<p><strong>降低迁移成本</strong></p>\n<p>国内的AI大模型通常在英伟达的GPU硬件上运行,如果用户想从英伟达的硬件迁移到其他国产GPU,需要面对代码兼容性的问题。</p>\n<p>对此,中国移动(600941.SH)在大会上发布了一款用于芯片架构迁移的工具。这个工具名叫“芯合”,可以帮助用户将基于英伟达生态链编写的代码迁移到华为或其他国产硬件平台上,从而降低算力用户的迁移成本。</p>\n<p>一位中国移动人士对经济观察网称,很多AI大模型用户希望采用国产芯片,但过高的迁移成本是一个巨大障碍。开发“芯合”是为帮助AI大模型用户减少迁移成本,最终目标是让国产GPU更快被市场接受。在正式发布之前,该工具已经小规模试用了一段时间。</p>\n<p>一直以来,国产厂商的硬件架构与英伟达不兼容,国产厂商各自的架构也不兼容,所以用户原本在英伟达GPU上优化的代码可能无法直接在国产GPU上运行。</p>\n<p>该人士称,“芯合”为用户省去了手动修改大量代码的工作。此外,迁移工具可以帮助用户在不同生态之间切换,不需要重新编写整个程序。迁移过程中可能会给用户带来性能损耗,但损耗可以维持在10%以内。</p>\n<p>国产GPU公司瀚博半导体对经济观察网称,算力国产化需要企业打破各自独立的体系,共同构建一个生态,“芯合”是一个鼓舞人心的开始,公司会积极参与到该项目中。</p>\n<p>华为作为算力设施的建设者,也提供了一些方法帮助大模型用户向国产GPU迁移。</p>\n<p>一位华为人士对经济观察网称,华为提供了从硬件到软件的一整套解决方案,包括AI芯片、编程语言、开发工具和AI框架。但是,市面上的工程师和运维人员大多不熟悉华为的架构,导致用户在使用华为算力系统时,一旦出现问题,除了华为员工,很难找到其他能解决问题的工程师。</p>\n<p>华为在国内的AI芯片和服务器市场中占有较大的份额,这家公司一直在各省设有支持中心。该华为人士称,近期,这些支持中心开始免费帮助用户和客户做迁移,降低他们迁移到华为平台上的成本。</p>\n<p><strong>挑战万卡集群</strong></p>\n<p>国产算力的第二个难题是,国产GPU性能受限,使得智算中心需要从千卡规模迈入万卡甚至是十万卡规模。</p>\n<p>9月28日,中国工程院院士刘韵洁在主论坛上表示,中国在单卡GPU性能上无法和国外竞争,起码短时间内做不到。</p>\n<p>一位中国电信(601728.SH)人士对经济观察网表示,与海外GPU相比,国产GPU可能需要堆叠更多的量达到相同的算力水平,这也是为什么需要打造万卡规模算力。然而,就像管理一万人比管理一千人要难得多,打造万卡规模的算力集群面临诸多挑战。</p>\n<p>电信运营商通常是算力设施的投资方或运营方。在过去一年,中国电信在上海和北京建了两个国产万卡公共智算中心,算力规模分别是3.5EFLOPS和3.75EFLOPS。2024年8月,中国移动在哈尔滨1.8万卡规模的超大智算中心,算力规模是6.9EFLOPS。</p>\n<p>针对万卡规模带来的技术挑战,中国移动在9月27日公布了多项技术方案:GPU卡间互联协议,全调度以太网技术体系,融合存储方案等。</p>\n<p>简单来说,这是为了把上万张GPU卡和上千台服务器互联起来,并让它们之间快速通信以传输数据,还要确保它们在长时间运行时稳定,不会中断。当出现故障时能快速找到故障点并让AI辅助诊断。</p>\n<p>上述中国移动人士称,这些技术的开发难度很高,目前还在小规模验证阶段,中国移动需要联合服务器和GPU企业一起做测试,预计明年大规模运用。</p></body></html>","htmlText":"<html><head></head><body><div>\n \n</div>\n<p><strong>经济观察网 记者 沈怡然 </strong>国产算力长期面临两大问题:第一,国产GPU缺乏生态支持难以替代英伟达的GPU;第二,如何在国产GPU单卡性能有限的条件下,通过其他技术手段提升整体算力水平。</p>\n<p>在9月27日至29日举行的2024年中国算力大会上,产业各方着重探讨解决办法。</p>\n<p><strong>降低迁移成本</strong></p>\n<p>国内的AI大模型通常在英伟达的GPU硬件上运行,如果用户想从英伟达的硬件迁移到其他国产GPU,需要面对代码兼容性的问题。</p>\n<p>对此,中国移动(600941.SH)在大会上发布了一款用于芯片架构迁移的工具。这个工具名叫“芯合”,可以帮助用户将基于英伟达生态链编写的代码迁移到华为或其他国产硬件平台上,从而降低算力用户的迁移成本。</p>\n<p>一位中国移动人士对经济观察网称,很多AI大模型用户希望采用国产芯片,但过高的迁移成本是一个巨大障碍。开发“芯合”是为帮助AI大模型用户减少迁移成本,最终目标是让国产GPU更快被市场接受。在正式发布之前,该工具已经小规模试用了一段时间。</p>\n<p>一直以来,国产厂商的硬件架构与英伟达不兼容,国产厂商各自的架构也不兼容,所以用户原本在英伟达GPU上优化的代码可能无法直接在国产GPU上运行。</p>\n<p>该人士称,“芯合”为用户省去了手动修改大量代码的工作。此外,迁移工具可以帮助用户在不同生态之间切换,不需要重新编写整个程序。迁移过程中可能会给用户带来性能损耗,但损耗可以维持在10%以内。</p>\n<p>国产GPU公司瀚博半导体对经济观察网称,算力国产化需要企业打破各自独立的体系,共同构建一个生态,“芯合”是一个鼓舞人心的开始,公司会积极参与到该项目中。</p>\n<p>华为作为算力设施的建设者,也提供了一些方法帮助大模型用户向国产GPU迁移。</p>\n<p>一位华为人士对经济观察网称,华为提供了从硬件到软件的一整套解决方案,包括AI芯片、编程语言、开发工具和AI框架。但是,市面上的工程师和运维人员大多不熟悉华为的架构,导致用户在使用华为算力系统时,一旦出现问题,除了华为员工,很难找到其他能解决问题的工程师。</p>\n<p>华为在国内的AI芯片和服务器市场中占有较大的份额,这家公司一直在各省设有支持中心。该华为人士称,近期,这些支持中心开始免费帮助用户和客户做迁移,降低他们迁移到华为平台上的成本。</p>\n<p><strong>挑战万卡集群</strong></p>\n<p>国产算力的第二个难题是,国产GPU性能受限,使得智算中心需要从千卡规模迈入万卡甚至是十万卡规模。</p>\n<p>9月28日,中国工程院院士刘韵洁在主论坛上表示,中国在单卡GPU性能上无法和国外竞争,起码短时间内做不到。</p>\n<p>一位中国电信(601728.SH)人士对经济观察网表示,与海外GPU相比,国产GPU可能需要堆叠更多的量达到相同的算力水平,这也是为什么需要打造万卡规模算力。然而,就像管理一万人比管理一千人要难得多,打造万卡规模的算力集群面临诸多挑战。</p>\n<p>电信运营商通常是算力设施的投资方或运营方。在过去一年,中国电信在上海和北京建了两个国产万卡公共智算中心,算力规模分别是3.5EFLOPS和3.75EFLOPS。2024年8月,中国移动在哈尔滨1.8万卡规模的超大智算中心,算力规模是6.9EFLOPS。</p>\n<p>针对万卡规模带来的技术挑战,中国移动在9月27日公布了多项技术方案:GPU卡间互联协议,全调度以太网技术体系,融合存储方案等。</p>\n<p>简单来说,这是为了把上万张GPU卡和上千台服务器互联起来,并让它们之间快速通信以传输数据,还要确保它们在长时间运行时稳定,不会中断。当出现故障时能快速找到故障点并让AI辅助诊断。</p>\n<p>上述中国移动人士称,这些技术的开发难度很高,目前还在小规模验证阶段,中国移动需要联合服务器和GPU企业一起做测试,预计明年大规模运用。</p></body></html>","text":"经济观察网 记者 沈怡然 国产算力长期面临两大问题:第一,国产GPU缺乏生态支持难以替代英伟达的GPU;第二,如何在国产GPU单卡性能有限的条件下,通过其他技术手段提升整体算力水平。 在9月27日至29日举行的2024年中国算力大会上,产业各方着重探讨解决办法。 降低迁移成本 国内的AI大模型通常在英伟达的GPU硬件上运行,如果用户想从英伟达的硬件迁移到其他国产GPU,需要面对代码兼容性的问题。 对此,中国移动(600941.SH)在大会上发布了一款用于芯片架构迁移的工具。这个工具名叫“芯合”,可以帮助用户将基于英伟达生态链编写的代码迁移到华为或其他国产硬件平台上,从而降低算力用户的迁移成本。 一位中国移动人士对经济观察网称,很多AI大模型用户希望采用国产芯片,但过高的迁移成本是一个巨大障碍。开发“芯合”是为帮助AI大模型用户减少迁移成本,最终目标是让国产GPU更快被市场接受。在正式发布之前,该工具已经小规模试用了一段时间。 一直以来,国产厂商的硬件架构与英伟达不兼容,国产厂商各自的架构也不兼容,所以用户原本在英伟达GPU上优化的代码可能无法直接在国产GPU上运行。 该人士称,“芯合”为用户省去了手动修改大量代码的工作。此外,迁移工具可以帮助用户在不同生态之间切换,不需要重新编写整个程序。迁移过程中可能会给用户带来性能损耗,但损耗可以维持在10%以内。 国产GPU公司瀚博半导体对经济观察网称,算力国产化需要企业打破各自独立的体系,共同构建一个生态,“芯合”是一个鼓舞人心的开始,公司会积极参与到该项目中。 华为作为算力设施的建设者,也提供了一些方法帮助大模型用户向国产GPU迁移。 一位华为人士对经济观察网称,华为提供了从硬件到软件的一整套解决方案,包括AI芯片、编程语言、开发工具和AI框架。但是,市面上的工程师和运维人员大多不熟悉华为的架构,导致用户在使用华为算力系统时,一旦出现问题,除了华为员工,很难找到其他能解决问题的工程师。 华为在国内的AI芯片和服务器市场中占有较大的份额,这家公司一直在各省设有支持中心。该华为人士称,近期,这些支持中心开始免费帮助用户和客户做迁移,降低他们迁移到华为平台上的成本。 挑战万卡集群 国产算力的第二个难题是,国产GPU性能受限,使得智算中心需要从千卡规模迈入万卡甚至是十万卡规模。 9月28日,中国工程院院士刘韵洁在主论坛上表示,中国在单卡GPU性能上无法和国外竞争,起码短时间内做不到。 一位中国电信(601728.SH)人士对经济观察网表示,与海外GPU相比,国产GPU可能需要堆叠更多的量达到相同的算力水平,这也是为什么需要打造万卡规模算力。然而,就像管理一万人比管理一千人要难得多,打造万卡规模的算力集群面临诸多挑战。 电信运营商通常是算力设施的投资方或运营方。在过去一年,中国电信在上海和北京建了两个国产万卡公共智算中心,算力规模分别是3.5EFLOPS和3.75EFLOPS。2024年8月,中国移动在哈尔滨1.8万卡规模的超大智算中心,算力规模是6.9EFLOPS。 针对万卡规模带来的技术挑战,中国移动在9月27日公布了多项技术方案:GPU卡间互联协议,全调度以太网技术体系,融合存储方案等。 简单来说,这是为了把上万张GPU卡和上千台服务器互联起来,并让它们之间快速通信以传输数据,还要确保它们在长时间运行时稳定,不会中断。当出现故障时能快速找到故障点并让AI辅助诊断。 上述中国移动人士称,这些技术的开发难度很高,目前还在小规模验证阶段,中国移动需要联合服务器和GPU企业一起做测试,预计明年大规模运用。","highlighted":1,"essential":1,"paper":2,"link":"https://laohu8.com/post/354503614214144","repostId":0,"isVote":1,"tweetType":1,"commentLimit":10,"symbols":["IE00BYXW3230.USD","3NVD.UK","IE0009356076.USD","IE00BFSS7M15.SGD","IE00BMPRXR70.SGD","HK0000320264.USD","SGXZ81163826.USD","IE0005OL40V9.USD","LU1064130708.USD","LU0057025933.USD","IE0004091025.USD","LU0056508442.USD","IE00BZ199S13.USD","SG9999002463.SGD","601728","00941","IE00B5949003.HKD","LU2148510915.USD","IE00B7KXQ091.USD","LU0048584097.USD","LU1634259557.SGD","IE0004086264.USD","IE00BD6J9T35.USD","IE00BFSS8Q28.SGD","LU0061474960.USD","IE00B19Z8X17.USD","IE00BJJMRX11.SGD","L","80883","LU1481107354.HKD","2NVD.UK","IE00B1BXHZ80.USD","IE00BK4W5L77.USD","LU0516423091.SGD","600941","600938","00728"],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":2702,"xxTargetLangEnum":"ZH_CN"},"isVote":1,"tweetType":1,"viewCount":2407,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":25,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/355120525131992"}
精彩评论