国内精品人妻无码久久久影院蜜桃,久久发布国产伦子伦精品,强壮公让我高潮八次苏晴,无码日韩精品一区二区免费暖暖,夜夜爽www

瑞技科技

重磅消息

 
引领 AI 与高性能计算未来:WEKA 亮相 SC24 美国超级计算大会
首页 > 网站博客 > 引领 AI 与高性(xing)能(neng)计(ji)算未来:WEKA 亮相 SC24 美国超级计(ji)算大会

引领 AI 与高性能计算未来:WEKA 亮相 SC24 美国超级计算大会

2024年(nian)11月19日(ri)至21日(ri),超(chao)级(ji)(ji)计(ji)算大(da)(da)会(SuperComputing Conference 2024, SC24)在美国佐治亚州亚特兰大(da)(da)盛大(da)(da)帷幕(mu),汇聚(ju)了高性能计(ji)算(HPC)、人工智(zhi)能(AI)和数(shu)据科学领域的(de)(de)顶尖专家,推(tui)动数(shu)据驱动创(chuang)(chuang)新的(de)(de)前沿。每年(nian),SC 超(chao)级(ji)(ji)计(ji)算大(da)(da)会都会展(zhan)示(shi)突(tu)破(po)性的(de)(de)研究成果、前沿技(ji)术以及定义计(ji)算能力(li)的(de)(de)未来(lai)趋(qu)势,今年(nian)也不例外。从(cong) E 级(ji)(ji)计(ji)算和 AI 工作负载(zai)的(de)(de)最新进展(zhan),到量子技(ji)术的(de)(de)创(chuang)(chuang)新突(tu)破(po),超(chao)级(ji)(ji)计(ji)算大(da)(da)会早(zao)已成为(wei)重塑行业与社会的(de)(de)大(da)(da)规(gui)模(mo)计(ji)算创(chuang)(chuang)新理念的(de)(de)试金石。


在这场展示超级计算最新进展的盛会上,WEKA 与(yu)合作(zuo)伙伴一同,带(dai)来了专为应对 HPC 和(he) AI 不断变化(hua)的挑(tiao)战(zhan)的全新解决方(fang)(fang)案(an)。随着(zhe) AI 模型的日益复杂、数(shu)据量的剧增以(yi)及(ji)实(shi)(shi)时(shi)处理需求(qiu)的增加,企业亟需超越传统存(cun)储和(he)数(shu)据管理能(neng)力的可扩展、高弹(dan)性(xing)(xing)、高性(xing)(xing)能(neng)解决方(fang)(fang)案(an)。我们(men)最新的创新正是为满足这(zhei)些(xie)需求(qiu)而设计,提供(gong)前所未有的速度、灵活性(xing)(xing)和(he)可靠性(xing)(xing),支持从(cong)数(shu)据中心、云端以(yi)及(ji)边缘部署的各种数(shu)据密集型工(gong)作(zuo)负(fu)载。这(zhei)些(xie)解决方(fang)(fang)案(an)不仅帮助企业动态扩展并最大(da)化(hua)资源利用率(lv),还能(neng)以(yi)变革性(xing)(xing)的速度下解锁数(shu)据洞察,从(cong)而实(shi)(shi)现前沿研究与(yu)实(shi)(shi)际(ji) AI 应用之间的无缝衔接(jie)。


在今年的大会上,WEKA 携手 NVIDIA、Supermicro、Arm 和 Run:ai 等合作伙伴,展(zhan)示如何支持(chi)企业大规模(mo)扩(kuo)展(zhan)、应对负(fu)载波动,提供多(duo)组(zu)件高效(xiao)编排、提升安全性和系统稳(wen)定性,并在降低能耗、实现更高冷(leng)却效(xiao)率的同时提升 AI 计算能力。

首款为NVIDIA Grace CPU超级芯片打造的存储解决方案

随着 AI 和 HPC 工作负载的(de)(de)不断演进,对超高速数据访问(wen)和高效(xiao)(xiao)处(chu)理能力的(de)(de)需求(qiu)日(ri)益增加(jia)。WEKA 与(yu)(yu)英伟达(da) NVIDIA、超微 Supermicro和 Arm 联(lian)手(shou)应(ying)对这一(yi)挑战,共同推出结合 WEKA 超高速数据平(ping)台与(yu)(yu) NVIDIA Grace CPU 超级芯片(pian)的(de)(de)解决方案,树立了数据密(mi)集型环(huan)境下性(xing)能、可扩(kuo)展性(xing)和能效(xiao)(xiao)的(de)(de)新(xin)标杆。这一(yi)强强联(lian)合不仅能加(jia)速 AI 模型训练,减少延迟,还能显著优化资源(yuan)利用效(xiao)(xiao)率,同时保(bao)持低能耗水平(ping)。


在(zai)(zai) SC24 大会上,WEKA 宣布(bu)推出业(ye)内首款专(zhuan)为 NVIDIA Grace™ CPU 超(chao)级芯片设计的高性能(neng)(neng)(neng)存(cun)储解决方(fang)案(an)(an)。该方(fang)案(an)(an)基于全新的 Supermicro 存(cun)储服(fu)(fu)务器,配备 WEKA® Data Platform 软件,并(bing)搭载(zai) Arm® Neoverse™ V2 核心(xin),借助 NVIDIA Grace CPU 超(chao)级芯片提供前(qian)所(suo)(suo)未有的性能(neng)(neng)(neng)密度和(he)能(neng)(neng)(neng)效优势,助力企业(ye)加速 AI 工作负载(zai)。通过(guo)减少 I/O 瓶颈并(bing)提升数(shu)据访问效率,这一(yi)联(lian)合解决方(fang)案(an)(an)让数(shu)据中心(xin)在(zai)(zai)保(bao)持极(ji)低能(neng)(neng)(neng)耗的同时,实现(xian)前(qian)所(suo)(suo)未有的性能(neng)(neng)(neng)突破。WEKA Data Platform 预计将(jiang)于2025年(nian)初在(zai)(zai) Grace 服(fu)(fu)务器上提供服(fu)(fu)务,标(biao)志(zhi)着面向未来的基础设施的诞生,并(bing)能(neng)(neng)(neng)随(sui)着企业(ye)需(xu)求增长(zhang)而(er)扩展。

WEKA 亮相 SC24 美国超级计算大会

NVIDIA Grace CPU 拥有144个高(gao)性能(neng)(neng) Arm Neoverse V2 核心(xin),能(neng)(neng)效是传统 x86 服务(wu)器的(de)两倍。这一(yi)配置(zhi)与(yu) WEKA 的(de) AI 原生(sheng)数据架构相结合,确保了(le)整个 AI 数据管(guan)道的(de)最(zui)佳性能(neng)(neng),最(zui)大限度(du)提(ti)升了(le) GPU 利用率(lv),并在大幅(fu)降低能(neng)(neng)耗(hao)的(de)同(tong)时加(jia)速数据洞察。这一(yi)组合使企业能(neng)(neng)够更(geng)高(gao)效地处(chu)理复(fu)杂的(de) AI 工作负载(zai),提(ti)升速度(du)和效率(lv)。


Grace CPU 采用高带(dai)宽 LPDDR5X 内存,提(ti)供(gong) 1 TB/s 的(de)内存带(dai)宽,与WEKA 的(de)架(jia)构无缝结(jie)合(he),有效(xiao)消(xiao)除数据瓶颈,确保(bao)了数据流的(de)高效(xiao)传输。这使得 AI 训练(lian)更快,训练(lian)周(zhou)期更短,推(tui)理速度更快,企(qi)业能够(gou)(gou)在不牺(xi)牲性能的(de)情况下扩展 AI 工作负(fu)载。这样(yang)的(de)资源优(you)化能够(gou)(gou)顺畅高效(xiao)地满足数据密集(ji)型环境(jing)的(de)需求(qiu)。


除了(le)(le)性(xing)能(neng)(neng)(neng)提升之(zhi)外,这一存储解(jie)决方案还在能(neng)(neng)(neng)源和空(kong)间(jian)效率方面(mian)设立了(le)(le)新标准。专为大规模 AI 和现代 HPC 工作负载而生,WEKA Data Platform 能(neng)(neng)(neng)够(gou)帮助企业降低数据中心的(de)占地面(mian)积和能(neng)(neng)(neng)源消(xiao)耗(hao)。能(neng)(neng)(neng)效优(you)异的(de) Grace CPU 与 WEKA 的(de)基础设施(shi)整(zheng)合(he)能(neng)(neng)(neng)力相结合(he),让企业能(neng)(neng)(neng)够(gou)以更少的(de)资源实现更多(duo)成果,在推动(dong) AI 性(xing)能(neng)(neng)(neng)的(de)同时支持(chi)可持(chi)续发(fa)展目标。


WEKA Data Platform 通(tong)过提高(gao) GPU 堆栈(zhan)效率10至(zhi)50倍(bei),优化了(le)大(da)规模 AI 和 HPC 工作负载。通(tong)过减(jian)少数(shu)据(ju)冗余和实现灵活的(de)(de)云端扩展,它将数(shu)据(ju)基础设施需(xu)求减(jian)少了(le)4到7倍(bei),并大(da)幅(fu)降低(di)碳排(pai)放,每存储1PB数(shu)据(ju)每年可减(jian)少高(gao)达260吨的(de)(de)二(er)氧(yang)化碳排(pai)放,同时降低(di)多(duo)达10倍(bei)的(de)(de)能(neng)源(yuan)成(cheng)本。加上 Grace CPU 超级芯片(pian)两倍(bei)的(de)(de)能(neng)效,这一解决方案(an)帮助(zhu)客户能(neng)够用(yong)更少的(de)(de)资源(yuan)完成(cheng)更多(duo)任务,在提升(sheng)AI性能(neng)的(de)(de)同时推动(dong)可持续发展目标。


这一(yi)业界首创的(de)联(lian)合架构为企(qi)业降(jiang)低(di)成(cheng)本、加速性能并推(tui)动 AI、HPC 和数据分析(xi)的(de)市场(chang)化进程提供了可靠支(zhi)持。对于运行复(fu)杂 AI 模型、大规模仿真或(huo)实时数据处(chu)理的(de)企(qi)业而言,这一(yi)强大组合提供了数据驱动世界中至关(guan)重要(yao)的(de)速度、效(xiao)率和节能优势。

WEKA 亮相 SC24 美国超级计算大会

WARRP:面向可扩展、可持续生产环境的云无关 AI RAG 参考平台

随着(zhe)企(qi)业越来越多(duo)地(di)采用 AI 驱动的(de)(de)(de)应用,部(bu)署能(neng)够无缝(feng)(feng)处理大(da)规模数据(ju)密集(ji)型工作负载(zai)的(de)(de)(de)检索增(zeng)强生(sheng)成(Retrieval-Augmented Generation,RAG)推理环(huan)境变得至(zhi)关重要(yao)。然而(er),从(cong)概念验证到(dao)生(sheng)产环(huan)境的(de)(de)(de)转变带来了许多(duo)复杂的(de)(de)(de)挑战。这些生(sheng)产级 AI 环(huan)境需要(yao)可(ke)靠的(de)(de)(de)可(ke)扩展(zhan)性、高(gao)效的(de)(de)(de)资源调度,以(yi)及跨多(duo)个基础(chu)设施(shi)(从(cong)本地(di)数据(ju)中心到(dao)多(duo)个云(yun)服务(wu)供(gong)应商)的(de)(de)(de)无缝(feng)(feng)连接。此外,在(zai)确保高(gao)性能(neng)的(de)(de)(de)同时(shi),还需要(yao)管理成本、满足(zu)严格的(de)(de)(de)安全要(yao)求(qiu),并减少碳(tan)排(pai)放,也(ye)是(shi)企(qi)业在(zai)将 RAG 解决方案投入生(sheng)产时(shi)必须面对的(de)(de)(de)难题。


我们非常(chang)高兴向大家(jia)介绍 WEKA AI RAG* 参考平台(tai) WARRP(WEKA AI RAG Reference Platform),这是一个云(yun)无关(guan)*的(de)(de)(de)解决(jue)方案,专(zhuan)为应对生产级 AI 挑战而设计,提供一致的(de)(de)(de)性(xing)能(neng)、简化(hua)(hua)的(de)(de)(de)管理(li)和可扩展的(de)(de)(de)部(bu)署能(neng)力,适用于数(shu)据(ju)(ju)中心(xin)和云(yun)环境。WARRP 利(li)用 WEKA 先(xian)进的(de)(de)(de)数(shu)据(ju)(ju)平台(tai),解决(jue)了传统(tong)共享文件系统(tong)难以实(shi)现的(de)(de)(de)一些(xie)功能(neng)。通过支持高性(xing)能(neng)向量数(shu)据(ju)(ju)库、简化(hua)(hua)跨地点的(de)(de)(de)数(shu)据(ju)(ju)传输(shu)以及(ji)灵(ling)活的(de)(de)(de)扩展能(neng)力,WARRP 让企业能(neng)够高效部(bu)署高效可持续的(de)(de)(de) AI 推(tui)理(li)环境,并能(neng)够随着(zhe)新框架和工具的(de)(de)(de)出现不断演进。


“Cloud agnostic”(云(yun)无(wu)关/云(yun)不(bu)(bu)可(ke)知)是(shi)指一种技术、解(jie)决方案或(huo)架构(gou),能(neng)够在多个云(yun)平台(tai)之(zhi)间无(wu)缝运行(xing),而(er)(er)不(bu)(bu)依赖(lai)于(yu)任何(he)特定云(yun)提供商(shang)的技术、工(gong)具或(huo)服(fu)(fu)务(wu)。简而(er)(er)言之(zhi),云(yun)无(wu)关性意味着某(mou)个应用程(cheng)序(xu)、服(fu)(fu)务(wu)或(huo)基础(chu)设(she)施可(ke)以在不(bu)(bu)同(tong)的云(yun)环境中部署、运行(xing)和管理,而(er)(er)无(wu)需(xu)做出重(zhong)大(da)修(xiu)改或(huo)适应。


*Retrieval-Augmented Generation (RAG)(检索增强生成)是一种结合了检索技术与生成模型的自然语言处理(NLP)方法,旨在增强生成模型的表现力和准确性,尤其在面对需要大量外部知识的任务时。简单来说,RAG模型通过在生成答案之前首先进行信息检索,从外部知识库中获取相关信息,然后将这些信息与生成模型结合,以生成更为准确和上下文相关的答案。

我们创建了 WARRP(WEKA AI RAG 参考平台),作为一个云无(wu)关(guan)的(de)(de)(de) RAG 推(tui)理(li)平台,无(wu)论部署(shu)在数(shu)据(ju)中心(xin)还是云中,都能提(ti)供一致的(de)(de)(de)框架(jia)、可(ke)管理(li)性和结果。WARRP 充(chong)分(fen)利用了 WEKA 独(du)特的(de)(de)(de)功能,解决了共享文件(jian)系(xi)统中常(chang)见的(de)(de)(de)挑战。例如(ru)(ru),它(ta)支持高性能向量(liang)数(shu)据(ju)库、通过我们的(de)(de)(de)高速 POSIX 系(xi)统进行(xing)(xing)批量(liang)数(shu)据(ju)摄取,同时(shi)通过 S3 索引,并可(ke)以在数(shu)据(ju)流动过程中在不(bu)同位置之间(jian)无(wu)缝传输数(shu)据(ju)(比(bi)如(ru)(ru)在一个位置导入数(shu)据(ju),再在另一个位置进行(xing)(xing)处理(li))。


WARRP 定义了一个(ge)强(qiang)大的(de)生产级 RAG 推(tui)理(li)解(jie)决(jue)方(fang)案(an)所(suo)需的(de)基础层。首先是(shi)基础设施层,跨(kua)越多个(ge)数(shu)(shu)据中(zhong)心(xin)或(huo)云(yun)服务供(gong)(gong)应商。接下来是(shi) WEKA 数(shu)(shu)据层,它在(zai)本地环境(jing)和云(yun)环境(jing)中(zhong)提供(gong)(gong)相同的(de)性(xing)能(neng)和功能(neng)。然后是(shi)编(bian)排层,包(bao)括 Kubernetes 容(rong)器(qi)编(bian)排器(qi)和像 Run:ai 这(zhei)样的(de) GPU 编(bian)排解(jie)决(jue)方(fang)案(an)。为(wei)了简化(hua)部(bu)署和管理(li),我们选(xuan)择(ze)了英伟达的(de)框架,如 NIMs 和 Nemo,这(zhei)些框架构成了英伟达的(de)企业级技术堆栈。上层是(shi)开(kai)发层,利用 Jupyter 等工(gong)具进(jin)行编(bian)程。其次,Langsmith 和 Milvus(分布式向量数(shu)(shu)据库(ku))等中(zhong)间件工(gong)具支持部(bu)署,最后模型(xing)分层在(zai)它们之上,由英伟达 NIMs 打包(bao)或(huo)根据企业需求(qiu)进(jin)行容(rong)器(qi)化(hua)。最后,应用程序将提供(gong)(gong)用户(hu)界面并提取有(you)价值的(de)信息。


WARRP 的核心优(you)势在于它能够根(gen)据推(tui)(tui)理(li)(li)(li)需求动态扩展,并(bing)根(gen)据需要在微(wei)调和(he)推(tui)(tui)理(li)(li)(li)之间(jian)切换。它还能在 WEKA 上(shang)运行分布式(shi)向量(liang)数(shu)据库,为(wei)整个(ge) RAG 管道提供卓越的性能和(he)可扩展性,并(bing)能灵活地备份(fen)数(shu)据并(bing)将其(qi)发送到远程环境,以实现冗余或突发处理(li)(li)(li)。


通过 WARRP,我们(men)为生(sheng)产级(ji) RAG 推理管道建立了(le)基础层并验证了(le)特定框架。展望(wang)未来,我们(men)将不断为每一(yi)层添加(jia)新的框架,如(ru) EKS、AKS 或 GKE 等托管 Kubernetes 服(fu)务,并整合其他社区发布(bu)的具有价值的框架。这种迭代(dai)方(fang)法使 WARRP 与(yu) AI 生(sheng)态系统的最新进展保持一(yi)致。

SC24 强调了(le)(le)(le)高性(xing)能(neng)(neng)(neng)计算和人工(gong)智能(neng)(neng)(neng)领(ling)域的(de)(de)(de)(de)(de)(de)创(chuang)新前(qian)(qian)沿,WEKA 很荣(rong)幸能(neng)(neng)(neng)够为现(xian)代(dai)数(shu)据(ju)密集型(xing)环(huan)境实际挑战提(ti)(ti)(ti)供(gong)(gong)的(de)(de)(de)(de)(de)(de)解(jie)决(jue)方(fang)案(an)。我们与(yu)英(ying)伟达(NVIDIA)、超微(wei)(Supermicro)和 Arm 等(deng)合作(zuo)(zuo)伙伴的(de)(de)(de)(de)(de)(de)合作(zuo)(zuo)带来(lai)了(le)(le)(le)重新定义了(le)(le)(le)企(qi)业(ye) AI 和 HPC 工(gong)作(zuo)(zuo)负载(zai)可(ke)能(neng)(neng)(neng)性(xing)的(de)(de)(de)(de)(de)(de)前(qian)(qian)沿技术。从(cong)针对英(ying)伟达 Grace CPU 超级芯片的(de)(de)(de)(de)(de)(de)革命性(xing)存储解(jie)决(jue)方(fang)案(an)到多功能(neng)(neng)(neng) WARRP 架(jia)构(gou),WEKA 致(zhi)力(li)于提(ti)(ti)(ti)供(gong)(gong)可(ke)扩展、高效(xiao)和节(jie)能(neng)(neng)(neng)的(de)(de)(de)(de)(de)(de) AI 平(ping)台,帮助(zhu)企(qi)业(ye)将 AI 从(cong)概念验证推向大(da)(da)规(gui)模生产。这些(xie)解(jie)决(jue)方(fang)案(an)既能(neng)(neng)(neng)满足当前(qian)(qian)工(gong)作(zuo)(zuo)负载(zai)的(de)(de)(de)(de)(de)(de)需求,又能(neng)(neng)(neng)适(shi)应(ying)未来(lai)不断发(fa)展的(de)(de)(de)(de)(de)(de)需要(yao)。通(tong)过(guo)降低能(neng)(neng)(neng)耗、优化(hua)数(shu)据(ju)处理和云无关(guan)的(de)(de)(de)(de)(de)(de)灵活性(xing),WEKA 为企(qi)业(ye)提(ti)(ti)(ti)供(gong)(gong)了(le)(le)(le)强大(da)(da)的(de)(de)(de)(de)(de)(de)工(gong)具(ju),加快了(le)(le)(le)洞察时间,最大(da)(da)限(xian)度(du)地提(ti)(ti)(ti)高了(le)(le)(le)资源利(li)用率,并有(you)助(zhu)于实现(xian)可(ke)持续发(fa)展目标(biao)。在前(qian)(qian)进的(de)(de)(de)(de)(de)(de)道路上(shang),我们致(zhi)力(li)于通(tong)过(guo)可(ke)无缝(feng)集成新兴技术的(de)(de)(de)(de)(de)(de)自适(shi)应(ying)架(jia)构(gou)为行业(ye)提(ti)(ti)(ti)供(gong)(gong)支持,确保企(qi)业(ye)在数(shu)据(ju)驱动的(de)(de)(de)(de)(de)(de)世界中(zhong)保持领(ling)先地位(wei)。

关于WEKA

WEKA 正在为 AI 时代的企业数据堆栈设计全新的解决方案。WEKA® Data Platform 采用云(yun)和(he) AI 原生架构(gou),可(ke)以在任何地(di)(di)方部署,实(shi)现本地(di)(di)、云(yun)端和(he)边缘环境的(de)(de)(de)数据(ju)无缝迁移。它将(jiang)传(chuan)统(tong)的(de)(de)(de)数据(ju)孤岛转变为动态数据(ju)管道,加速 GPU、AI 模型(xing)训练和(he)推理(li),以及其他性能密集型(xing)工作(zuo)负载(zai),使(shi)其更(geng)高(gao)效地(di)(di)工作(zuo)、同时降低能源消耗和(he)碳排放。WEKA 帮助全球最具创新性的(de)(de)(de)企业和(he)研究机构(gou)克服复杂(za)的(de)(de)(de)数据(ju)挑战,实(shi)现更(geng)快、更(geng)可(ke)持(chi)续(xu)的(de)(de)(de)发现、洞察和(he)业务(wu)成(cheng)果——包括《财富》50强中的(de)(de)(de)12家公司。

引领 AI 与高性能计算未来:WEKA 亮相 SC24 美国超级计算大会

联系瑞技

WEKA提供AI时代(dai)的数据平台,优(you)化(hua)数据迁移,加速AI处理,降低(di)能耗,助力企(qi)业(ye)实现高效、可持续的业(ye)务成果。