В понеделник Nvidia добави нови функции към своя най-висок клас чип за изкуствен интелект. Компанията заяви, че новото оборудване ще започне да се предлага през следващата година заедно с Amazon, Google на Alphabet и Oracle.
Чипът с наименованието H200 ще измести сегашния най-добър чип H100 на Nvidia. Основното подобрение е по-голямата високоскоростна памет – една от най-скъпите части на чипа, която определя колко данни той може да обработва за кратко време.
Nvidia доминира на пазара на чипове за изкуствен интелект и поддържа услугата ChatGPT на OpenAI и много други подобни генеративни услуги за изкуствен интелект, които отговарят на запитвания в писмен вариант. Добавянето на повече памет с висока пропускателна способност и по-бърза връзка с обработващите елементи на чипа означава, че подобни услуги ще могат да изписват отговора още по-бързо.
H200 има 141 гигабайта високоскоростна памет, в сравнение с предишния H100, който разполагаше с 80 гигабайта. Nvidia не разкрива доставчиците си за памет на новия чип, но Micron Technology обяви през септември, че работи по това да стане доставчик на Nvidia.
Nvidia купува памет и от корейската SK Hynix, която миналия месец сподели, че чиповете с изкуствен интелект допринасят за възстановяването на продажбите.
В сряда Nvidia отбеляза, че Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure ще бъдат сред първите доставчици на облачни услуги, които ще предложат достъп до чиповете H200, освен специализираните доставчици на облачни услуги за изкуствен интелект CoreWeave, Lambda и Vultr.









