Samsung в феврале расскажет о самой быстрой в мире памяти GDDR7 — в 1,8 раза быстрее GDDR6X
Графическая память с двойной скоростью передачи данных — Graphics Double Data Rate или GDDR — является важнейшим компонентом высокопроизводительных устройств, особенно в секторах графики и ИИ. Новейшим этапом развития технологии является память стандарта GDDR7. В программе февральской Международной конференции по твердотельным схемам IEEE 2024 Samsung расскажет о «DRAM GDDR7 16 Гбит, 37 Гбит/с с оптимизированной PAM3 коррекцией TRX и калибровкой ZQ».
Память GDDR7, которую готовит Samsung, позволит достичь скорости передачи данных до 37 Гбит/с на контакт, что соответствует пропускной способности 37 ГТ/с. То есть новый 16-Гбайт чип Samsung GDDR7 сможет обеспечить скорость передачи данных до 148 Гбайт/с, а подсистема памяти видеокарты из таких чипов в сочетании с 384-битной шиной даст пропускную способность в 1,776 Тбайт/с. Для сравнения, актуальная GeForce RTX 4090 с памятью GDDR6X обеспечивает 1,008 Тбайт/с. Помимо более высокой производительности, чип Samsung GDDR7, согласно заявлению производителя, потребляет на 20 % меньше энергии.
Добиться таких высоких скоростей помогла схема PAM3 — амплитудно-импульсная модуляция с тремя сигнальными уровнями (-1, 0 и +1). Этот механизм позволяет за два цикла передавать три бита данных, что более эффективно, чем двухуровневый NRZ в GDDR6. При этом сигналы PAM3 сложнее генерировать и декодировать, чем сигналы NRZ, что ведёт к росту потребления энергии, кроме того, они более восприимчивы к помехам. Но преимуществ у PAM3 всё-таки больше, поэтому данная схема и используется в GDDR7.
Samsung также упомянула, что применила эпоксидный компаунд с повышенной на 70 % термостойкостью, а это признак того, что модули памяти GDDR7 нагреваются сильнее, чем GDDR6, особенно на высоких тактовых частотах. Производитель пообещал вариант GDDR7 с более низким рабочим напряжением для ноутбуков, но показатели производительности компонентов в таком исполнении компания не уточнила.
Ожидается, что GDDR7 станет доступна вместе со следующим поколением графических процессоров AMD и NVIDIA, вероятно, позднее в этом году.
Источник