ATI vs nVidia

Продолжая тему "Holy War", обратим наш взор на производителей видеокарт, а там шумиха назревает тоже не слабая - сначала nVidia выпускает линейку GeForce GTX 260 и 280 и поражает мир красивой картинкой и заоблачной ценой, а затем ATI выпускает свои HD 4850 и HD 4870 и ложет nVidia на обе лопатки производительностью в один терафлоп и половинной ценой конкурента.

Вот пару статей для любопытствующих:

А кому вы отдадите предпочтение?

Последняя правка: ср, 27/08/2008 - 18:53
Submitted by Victor on

Комментарии

По мне так дело вкуса. Кому какой логотип больше нравиться.

А вообще я выбираю карту по матери и процу.Если мать nvidia, видео тож nvidia. Я думаю что всё логично.)

Submitted by kuler on
Ну не знаю как вы камрады, а я всегда пользовался логикой при выборе видеокарты. Т.е. сейчас хоть и вроде как ATI в новой линейке более уверенно себя чувствует, но вот такие его наработки как DirectX 10.1 support нафик кому не всрались, ибо кто будет писать несовместимый код, ведь доля nVIDIA-вских карточек велика т.е. если я не ошибаюсь она где то >60%. Т.е. получается имхо невыгодно писать несовместимый код.
Да и еще всегда немаловажной вещью для меня, как для старающегося стать девелопером 3D графики, это технологии, которые может держать конкретная видяха, тут у радеонов все плохо, может с архитектурой у них и все хорошо, т.е. она позволяет писать код не зависящий от спецификации конвейера,но никаких либ и даже намеков пока нет, а у nVIDIA тут все просто шикарно, вон CUDA уже бог знает сколько времени(начиная с ядра G8*) тестируется, выпускаются баг фиксы и обновления, а та технология всеми любимого PhysX-а, который теперь стал nVIDIA PhysX-ом, и которая стоит от 10k за один проект(тут я имею ввиду за исходники.) имхо очень перспективно считать физику на GPU тем более, что если верить официальному сайту то там немеренно желающих ее использовать.
Вообщем у nVIDIA c технологиями дела обстоят куда луче и именно это меня заставила, но еще раз повторюсь как человека увлеченного программированием 3D графикой, купить GEFORCE 8800GT коий стоил по-моему на 60-75 баксов больше чем тот-же HD3870.

Да и еще сейчас только nVIDIA официально заявила о поддержке OpenGL 3.0 в осенних драйверах, что еще раз подтверждает мой верный выбор, как человека предпочитающего OpenGL DirectX-у.

Submitted by BronX on
Quote:
BronX писал(а):
Вообщем у nVIDIA c технологиями дела обстоят куда луче
Но если сравнивать последние линейки карты, то ATI предложила решение не уступающие по производительности nVIDIA и стоящие почти в два раза дешевле - это как минимум дает смысл задуматься о том куда же пойдет развитие дальше.
Submitted by Victor on

Ну карты может быть по производительности одинаковые, но переход на ATI, в стане девелоперов затормаживается изза отсутствия у ATI адекватных инструментов для разработчика, под свои карты. Отсюда следует сказать и следствие, что ATI может проигрывать nVidia в игровых тестах, только изза того, что рендер пайплайн протаччивался под архитектуру nV4idia.

Submitted by Relyer on

А конечно не програмист, но с логикой вроде всё в порядке.. По поводу общёта физики на ГПУ, как-то бессмысленным мне это кажется. Учитывая что кол-во ядер на ЦПУ ростёт, нахрена считать физику на ГПУ. nVidia хочет продлить жизнь своему продукту. Ну это имхо)

Submitted by kuler on
Учитывая что кол-во ядер на ЦПУ ростёт, нахрена считать физику на ГПУ

Ну оно то растет, но вот сколько их сечас да есть процессоры в массовом рынке с 4 ядрами, ито они не так уж и сильно распространены ввиду своей стоимости, а вот у nVIDIA уже есть >100 процессоров универсальных в карточке(в моей недавно купленной GeForce 8800GT их ажно 112), хотя согласен частоты там поменьше, но ты представь, процессор расчитан на обработку различных данных, а видоекарта только на векторные данные, вот и представь что Производительность вершинного процессора Radeon 9800 сопоставима с Athlon 15000+, я понимаю что есть там всякие SSE технологии, но все равно это не решение проблемы ибо это сложность в реализации, забота а многопоточности, а это отнюдь не тривиальная задача, и игр, которые умеют использовать два процессора сейчас можно на пальцах пересчитать, хотя не спорю что теже проблемы с многопоточностью могут быть у nVIDIA PhysX, я не знаю, потому что сам еще не использовал nVIDIA PhysX.

Submitted by BronX on

GameDev.by