Господа, доброго дня. Помните те времена, когда топовые видеокарты всегда были двухчиповыми? После GTX 580 шла двухчиповая GTX 590, после GTX 780Ti или Titan - Titan Z, да даже если заглянуть далеко в прошлое: после 7800GTX 7900, а после и 7950GX2. Да, ушла эпоха двухчипок гораздо быстрее, чем начиналась, но почему так произошло, а главное - могут ли двухчиповые видеокарты снова разорвать все топы?
Почему рудимент в виде второго чипа отпал? На самом деле, причин много, самая первая - конечно, соотношение цены к качеству. Действительно, двухчиповая видеокарта (обычно) была дешевле, чем SLI-связка, к тому же занимала меньше места, потребляла меньше энергии, но была быстрее одночипового аналога. Да, SLI из отдельных карт был быстрее, но с этим нужно было париться: подбирать корпус, блок питания, покупать SLI-мостик, потом все это настраивать...
Работали две видеокарты не во всех играх, к тому же два топовых чипа на одной плате - звучит горячо. Единицы таких карт слыли надежными, еще меньше - холодными. В играх, где НЕТ поддержки SLI, двухчиповые видеокарты проигрывали одночиповым аналогам - энергопотребление у них ниже, а значит ниже и частоты.
Такая тягомотина продолжалась довольно долго, пока производители не поняли: надо или оптимизировать софт, или убирать двухчиповые видеокарты, а то и всю технологию насовсем. Второе было выгоднее, так как развитие SLI или Crossfire способствовало бы сохранению актуальности более старых видеокарт, что в итоге и произошло - в 40-й серии Nvidia, поддержка NVLink была прекращена (для десктопного сегмента). Ранее - в 30-й линейке, лишь 3090 получила поддержку многопроцессорных конфигов. NVLink заменил собой SLI.
Логичный вопрос, учитывая, что SLI не просто убили - ее уже и закопать успели, даже NVLink превратился в штуку для рабочих станций. Пока разработчики не захотят, или им не занесут деньжат - две видеокарты в том виде, в котором они были и не появятся - просто потому что зачем платить за две видеокарты, если одна будет постоянно простаивать.
Однако вот что интересно: сейчас увеличение производительности между поколениями идет в первую очередь за счет увеличения тепловыделения карт, потому что и транзисторов в чип надо напихать побольше, и частоту сделать повыше. В какой-то момент случится так, что расти по потреблению станет просто некуда: никто не хочет, чтобы его компьютер стал 2-киловаттным обогревателем, и придется придумывать решение.
"И как же поставить два 2-киловаттных чипа на одну плату" - можно спросить меня. Отвечу - так же, как и раньше - убив напряжение в ноль, снизив их частоту, а скомпенсировать это дело тем, что их два. Почему это эффективно?
Для линейного роста частоты нужно поднимать напряжение по экспоненте, то есть для каждого последующего мегагерца нам нужен бОльший скачок напряжения, чем для предыдущего. Условно: 0.995V для 1 ГГц, 1V для 1.1 ГГц, и аж 1.2V для 1.2 ГГц, соответственно 1.6V для 1.3 ГГц, цифры тут с потолка - просто как пример. И учитывая, как сильно задрано напряжение на нынешних видеокартах... (к примеру, на 3060, скинув 50 (!) ватт из 180, мы теряем около 5% частоты).
Условную 4090 мы урезаем по теплопакету вдвое - получится что-то типа 75-80% от нормальной 4090 по производительности, затем пихаем в одну плату два таких чипа, и в программе, где есть поддержка двух видеокарт - получаем производительность в 150-160% от одиночной 4090 при +- том же энергопотреблении. Разумеется, цифры взяты с потолка, просто как пример.
Если говорить более практично, то вот - результат моей GTX 1070Ti с 50% энергопотреблением:
Теперь поднимем энергопотребление до 100%:
И это на Pascal - довольно энергоэффективной архитектуре. В общем, двухчиповые видеокарты оказались бы отличным выходом из сложившейся ситуации (всяко лучше, чем бездумно задирать энергопотребление одного чипа), но это только в том случае, если производители софта и, в первую очередь, игр, будут оптимизировать свои творения под такие видеокарты.
Если они и вернутся, то точно не в том виде, в котором мы все привыкли их видеть. ГП у них будет один - чиплетный. Это когда на одной подложке располагается сразу несколько кристаллов, наподобие современных процессоров AMD.
Но для этого надо бы уменьшить размер кристалла, что малореально с нынешними технологиями. Зато это вполне рабочий способ объединить два ГП без особых проблем в плане энергопотребления и конструкции платы, кстати, AMD уже представляла нечто подобное.
Но пока не решена проблема с софтом - и думать нечего. Они отпали как рудимент, и пока таковыми остаются - вновь уж точно не появятся. На этом у меня все, если было интересно - не забудь поставить лайк и подписаться на канал. Скоро увидимся!