PDA

Просмотр полной версии : Nvidia vs Intel


padonak
17.04.2008, 13:38
В последнее время Nvidia делает очень много заявлений по поводу использования своих видеокарт для не совсем типичных для них задач и при этом говорит о приемуществе над процессорами Intel, причём заявления подкреплены фактами. В одном из тестов видеокарты 8-ой линейки противостоят процессорам Intel Core2Duo, Core2Extreme в тесте по кодированию видео потока, скажу вам разница не в пользу процессоров Intel, видеокарты в разы превосходят вычислительную мощность процессоров. Чувствую скоро на горизонте появится новый производитель процессоров, или как минимум программеры начнут использовать для вычисления не процессоры, а видеокарты. Битва титанов началсь.

wlade
17.04.2008, 15:07
В последнее время Nvidia делает очень много заявлений по поводу использования своих видеокарт для не совсем типичных для них задач и при этом говорит о приемуществе над процессорами Intel, причём заявления подкреплены фактами. В одном из тестов видеокарты 8-ой линейки противостоят процессорам Intel Core2Duo, Core2Extreme в тесте по кодированию видео потока, скажу вам разница не в пользу процессоров Intel, видеокарты в разы превосходят вычислительную мощность процессоров. Чувствую скоро на горизонте появится новый производитель процессоров, или как минимум программеры начнут использовать для вычисления не процессоры, а видеокарты. Битва титанов началсь.

Полная фигня,,,я читал про это...Так вот--в проверке проверялись только текстуры...Шрейдеры,,,динам. освещение,,,сглаживание и т.д. не тестировались

Jumper
17.04.2008, 15:41
потомучто шейдеры , освещение и сглаживание это удел графических карт, на цпу они бы показали результат в 0-1 фпс.

padonak
17.04.2008, 15:54
Полная фигня,,,я читал про это...Так вот--в проверке проверялись только текстуры...Шрейдеры,,,динам. освещение,,,сглаживание и т.д. не тестировались
Ты не в теме.

SarmaT
17.04.2008, 17:25
Хмм, а тесты на физику, математические вычисления и тп были? Оч интересное заявление...

Martin_Logan
17.04.2008, 17:57
Мда. Тестирование проводилось кем? Ессно самой nVidia (http://www.overclockers.ru/hardnews/28891.shtml).
Все эти разговоры начались только из-за Intel'овского Larrabee. Потому что боятся имхо. По заявлению Intel, Larrabee откроет возможность использования Ray-Tracing'га реалтайм, что даст качественно новую картинку (ибо не надо будет отдельно писать мягкие тени, придумывать динамическое освещение, итд, все из коробки так сказать)
Кроме того, эта архитектура не какая-то специфическая, а самая обычная x86. Поэтому разработчикам уже писавшим программы для х86 будет легко писать новые, а другим легко портировать старые. Уверен, Intel выпустит нужые компиляторы.
Ну и последнее это опять же вычисления двойной точности (double precision). Процессоры уже довольно давно обладают способностью производить такие вычисления.
nVidia вроде до сих пор не предоставляет такой возможности (могу ошибаться на счет линейки Tesla). Насколько я помню Cell в вычислениях с двойной точностью показывает падение производительности на порядок. (http://en.wikipedia.org/wiki/Cell_microprocessor)
The SPEs are capable of performing double precision calculations, albeit with an order of magnitude performance penalty.
ATI'шный чип RV670 показывает в лучшем случае двукратное падение производительности, в худшем - 4-х кратное. (http://www.tgdaily.com/content/view/35894/135/) Что в принципе довольно неплохо, но тягаться с Larrabee будет довольно трудно с такими показателями.
Так что оптимизм на счет становления nVidia, как производителя центральных процессоров излишен. Вычисления возможно будут делать. В первую очередь это конечно физика (зря чтоли Ageia покупали).

padonak
18.04.2008, 08:42
По поводу Larabee от Intel. GPGPU пустая ниша вот и хотят Intel "застолбить" её своим Larabee. И вообще, Intel анонсировал Larabee уже после заявлений AMD, что их видеокрты могут выполнять вычисления общего назначения не хуже чем процессоры. Да и сама Nvidia начала тестирование своих видеокарт ещё с 7-ой линейки, до анонса Larabee. У Nvidia уже готов мобильный процессор APX 2500, так что тут ещё не известно кто кого боится, и кто кого поджимает.

Martin_Logan
18.04.2008, 09:24
По поводу Larabee от Intel. GPGPU пустая ниша вот и хотят Intel "застолбить" её своим Larabee. И вообще, Intel анонсировал Larabee уже после заявлений AMD, что их видеокрты могут выполнять вычисления общего назначения не хуже чем процессоры.


Анонс AMD (http://www.ixbt.com/news/all/index.shtml?09/59/82) был сделан в ноябре 2007, а Larrabee был анонсирован ещё в марте 2006-го.

Да и сама Nvidia начала тестирование своих видеокарт ещё с 7-ой линейки, до анонса Larabee.

В смысле тестировать? На предмет возможности обработки физики?

У Nvidia уже готов мобильный процессор APX 2500, так что тут ещё не известно кто кого боится, и кто кого поджимает.

Нуу, мобильный. У Intel есть свое оружие в виде Atom. А Larrabee именно на производиловку намечен, как дискретное решение.

padonak
18.04.2008, 09:33
Анонс AMD был сделан в ноябре 2007, а Larrabee был анонсирован ещё в марте 2006-го.
На SIGGRAPH '06 ATI презентовала технологию Data Parallel Virtual Machine, использующую собственный API и предназначенную для компьютерных вычислений общего назначения на базе Firestream.

В смысле тестировать? На предмет возможности обработки физики?
http://www.ixbt.com/news/all/index.shtml?06/18/96

Martin_Logan
18.04.2008, 09:47
На ATI SIGGRAPH '06 ATI презентовала технологию Data Parallel Virtual Machine, использующую собственный API и предназначенную для компьютерных вычислений общего назначения на базе Firestream.

Мне кажется нет смысла говорить, что ATI представила это раньше. Даже если эта конференция проходила в январе, не могла же Intel за два месяца разработать Larrabee. Уверен и у ATI и у Intel разработка началась по крайней мере за год до этого, если не раньше.

http://www.ixbt.com/news/all/index.shtml?06/18/96

Дык это не nVidia, а просто левые ученые.

padonak
18.04.2008, 09:54
Дык это не nVidia, а просто левые ученые.
Ну мы то с тобой понимаем, кто "музыку" заказывал )

Martin_Logan
18.04.2008, 10:00
Ну мы то с тобой понимаем, кто "музыку" заказывал )
Не исключено. :)

Martin_Logan
18.04.2008, 10:13
Новость, так сказать, в тему. (http://www.overclockers.ru/hardnews/28902.shtml)

Micrate
18.04.2008, 17:48
Битва титанов 2 >_<

Moonlight
18.04.2008, 22:27
я типа где то вроде что то подобное читал. Мол типа ГПУ в 10-ки раз мощнее ЦПУ и можно использовать его малую часть как ЦПУ, и мол АМД выпустит комплексное решение, где не надо будет покупать проц или видеокарту, а уже все впаяно в плату =)

ULTOR!
18.04.2008, 22:41
АМД выпустит комплексное решение, где не надо будет покупать проц или видеокарту, а уже все впаяно в плату =)
а ет пичаль, а вдруг йа видяху решил поменять -_________-
ет скорее сего офисные компы будут

ak0z
19.04.2008, 03:13
АМД выпустит комплексное решение, где не надо будет покупать проц или видеокарту, а уже все впаяно в плату

O_O чтобы видяху менять надо перепаивать Ж)

Martin_Logan
25.04.2008, 21:03
Larrabee будет строить трёхмерные изображения методом растеризации

Ажиотаж вокруг графических способностей Larrabee привёл к тому, что это условное обозначение чаще всего упоминается в контексте построения трёхмерных изображений методом трассировки лучей (http://www.overclockers.ru/hardnews/28338.shtml) (ray-tracing), а поддержка классических методов построения изображения при помощи растеризации отходит на второй план. Это сформировало у некоторых читателей представление, что Larrabee будет использовать только трассировку лучей для построения изображений в играх, и это подтолкнёт игровую индустрию к решительным переменам.

Между тем, причастные к разработке Larrabee и сопутствующего программного обеспечения представители Intel поясняют (http://home.comcast.net/%7Etom_forsyth/blog.wiki.html#%5B%5BLarrabee%20and%20raytracing%5 D%5D%20), что в действительности основным направлением работы в играх для Larrabee станет построение изображений при помощи классических технологий растеризации. Они будут дополнены некоторыми расширениями, которые разработчики игр смогут использовать на свой вкус, но Intel ни в коей мере не собирается навязывать разработчикам переход на использование метода трассировки лучей. Особенно подчёркивается, что поддержку OpenGL и DirectX чип Larrabee обеспечит через традиционную растеризацию.

Larrabee способен строить трёхмерные сцены методом трассировки лучей, но это не будет его приоритетной задачей. Таким образом, любители компьютерных развлечений могут быть уверены, что их любимые игры смогут воспроизводиться и в системах, оснащённых видеокартами на основе Intel Larrabee. Графическая революция в игровой сфере откладывается. Intel может привлечь покупателей разве что побочными функциональными возможностями Larrabee, а также уровнем быстродействия видеокарт на его основе.

Источник: http://www.overclockers.ru/hardnews/28978.shtml

VladiT
27.04.2008, 19:17
Ажиотаж вокруг графических способностей Larrabee привёл к тому, что это условное обозначение чаще всего упоминается в контексте построения трёхмерных изображений методом трассировки лучей (http://www.overclockers.ru/hardnews/28338.shtml) (ray-tracing)

Блин, использование реал-тайм ray-tracing на ПК с приемлемым количеством FPS, это громадный скачёк в сторону реалистичности графики…

Будущие наступает очень быстро....

Jumper
28.04.2008, 23:26
http://www.3dnews.ru/news/larrabie_ne_budet_ispolzovat_trassirovku_luchei/

trend
04.05.2008, 07:46
Не думаю, что Интел отпустит от себя какого либо конкурента на опасное расстояние.Вот полюбуйтесь на их новую разработку- 45нм процессор тут (http://ru.intel.com/business/community/index.php?automodule=blog&blogid=32&showentry=81)