Видеокарта PCI-E GeForce GTX465 MSI N465GTX-M2D1G Отзывы, добавить отзыв
1GB GDDR5 256bit 607/3206МГц, PCI-E2.0, HDCP, 2DVI/miniHDMI, DVI->VGA, DVI->HDMI, SLI, 200Вт 714906




Комментарии
Оставив отзыв или оценку, Вы поможете сделать правильный выбор множеству людей!
Цвет текста
Цвет фона
Размер шрифта
Для поиска введите начало названия
Для поиска введите начало названия
Видеокарта PCI-E Radeon HD6790 Sapphire ценой 5276р,разве не подойдет?
Зависит от марки БП. Качественный просто необходим.вопросик не большой,эта видеокарта на мой комп пойдет,у меня бп 400вт,да и вообще подобрать видюху чтоб было 256 бит шина,и к БП подходила,иать asys p5k-se
Зависит от марки БП и остальной конфигурации, но все-таки рекомендую заменить на 500-550вт.Когда будут GTX460 и по чём?
Тоже хотелось бы это узнать. Судя по спецификации на оф. сайте Нвидии, карточка очень перспективная.Когда будут GTX460 и по чём?
Тоже хотелось бы это узнать. Судя по спецификации на оф. сайте Нвидии, карточка очень перспективная.Знакомый обзор, я его тоже читал когда решил на свой страх и риск приобрести очки, особенно после ............... самому. Но для меня теперь не существует карт Radeon, по крайней мере до того момента пока они не сделают что-то подобное. P.S. не будем дальше захламлять форум, если у вас появиться возможность протестить эту технология, сами все поймете.
Окей понял.Знакомый обзор, я его тоже читал когда решил на свой страх и риск приобрести очки, особенно после разочарования от 3D монитора Zalman. Сомнения развеялись когда мой друг приобрел их (видюха у него тоже 260), потусив у него пару вечеров на следующий день пошел в магазин. Так вот факт в том, что чтобы там не говорили цифры, (пытался сделать скриншот при помощи Fraps, который действительно показывает от 16 до 24 Fps), я использую их уже третий месяц и не разу еще не сталкивался с тормозами в игре, некоторые эффекты действительно приходится отключать, но это не для повышения производительности, а для уменьшения гхостинга, это все зависит от рейтинга игры. Короче спорить можно до бесконечности, это надо увидеть самому. Но для меня теперь не существует карт Radeon, по крайней мере до того момента пока они не сделают что-то подобное. P.S. не будем дальше захламлять форум, если у вас появиться возможность протестить эту технология, сами все поймете.
Окей понял.Вы батенька анаглиф с 3D Vision сами не путаете? А то честно говоря ваши слова бред и враньё, у гугла спросите про 3д визион, а потом пишите ахинею.
Во-первых, это не ахинея, а во-вторых зачем мне спрашивать у гугла когда передо мной стоит монитор Viewsonic VX2268VM и лежат очки Nvidia 3D Vision, надо не только читать статьи в инете 90% авторов которых работают на откатах от производителей того или иного железа, а пощупать так сказать ручками. Ну раз уж вы такой недоверчивый могу прислать фотки своей видюхи и очков.Вы батенька анаглиф с 3D Vision сами не путаете? А то честно говоря ваши слова бред и враньё, у гугла спросите про 3д визион, а потом пишите ахинею.
Во-первых, это не ахинея, а во-вторых зачем мне спрашивать у гугла когда передо мной стоит монитор Viewsonic VX2268VM и лежат очки Nvidia 3D Vision, надо не только читать статьи в инете 90% авторов которых работают на откатах от производителей того или иного железа, а пощупать так сказать ручками. Ну раз уж вы такой недоверчивый могу прислать фотки своей видюхи и очков. Почти два года назад была куплена GTX260-я,и уже тогда нас зомбировали:CUDA,PhysX. Дальше-больше,теперь ещё и 3D Vision втирают,не говоря нам,что даже SLI из двух 480-х в новых игрушках с ним едва справляется.
Ну это вы батенька загнули у меня 260GTX и 3D vision я спокойно играю во все недавно вышедшие игры в 3D на максимальных настройках и все работает замечательно, а все игры в 3D выглядят значительно лучше, так что не говорите, чего не знаете. Ну это вы батенька загнули у меня 260GTX и 3D vision я спокойно играю во все недавно вышедшие игры в 3D на максимальных настройках и все работает замечательно, а все игры в 3D выглядят значительно лучше, так что не говорите, чего не знаете.
Камрад, ты дурак? Почти два года назад была куплена GTX260-я,и уже тогда нас зомбировали:CUDA,PhysX. Дальше-больше,теперь ещё и 3D Vision втирают,не говоря нам,что даже SLI из двух 480-х в новых игрушках с ним едва справляется.
Ну это вы батенька загнули у меня 260GTX и 3D vision я спокойно играю во все недавно вышедшие игры в 3D на максимальных настройках и все работает замечательно, а все игры в 3D выглядят значительно лучше, так что не говорите, чего не знаете. Почти два года назад была куплена GTX260-я,и уже тогда нас зомбировали:CUDA,PhysX. Дальше-больше,теперь ещё и 3D Vision втирают,не говоря нам,что даже SLI из двух 480-х в новых игрушках с ним едва справляется.
Ну это вы батенька загнули у меня 260GTX и 3D vision я спокойно играю во все недавно вышедшие игры в 3D на максимальных настройках и все работает замечательно, а все игры в 3D выглядят значительно лучше, так что не говорите, чего не знаете. Rdeon HD 5870 Eyefinity против игры Dirt 2 в разрешении 5760х2160 (6 мониторов) [url="http://www.youtube.com/watch?v=JMbHZ8Mn__g
"]http://www.youtube.com/watch?v=JMbHZ8Mn__g[/quote][/url] по-моему так играть ужасно, работать, да, презентационную стену из мониторов для выставки сделать да, а вот играть - нет.26.06.2010 13:25АлександрСтарый ОсколОтветитьЗанимаюсь компьютерной графикой - купил сейчас Радеон, так вот не ощущаю работы ATI Stream, а CUDA все таки хорошо поддерживается и реально работает в ADOBE приложениях, 3Д приложениях и т.д. А еще ATI все обещают нормальную работу стерео, но чет как-то не видно (или я не знаю), а NVidia все-таки сделали правильно работающее удобное и качественное 3D Stereo решение. и те кто говорят что оно нафиг не надо, просто лукавят - поиграть в 3Д Стерео на 10 уровней круче чем поиграть обычно (попробуйте). А через год-два это станет стандартом. Надо РЕТу в магазинах поставить мониторы, очки и давать играть - небольшие затраты расскажут и покажут разницу и в последствии принесут прибыль. Единственное что у NVidia очень дорогие карты с большим энергопотреблением и выделением тепла. Пока невозможно дать однозначный ответ что лучше - ATI или NVidia и надеюсь ответа так никогда и не будет, иначе движение вперед прекратится.26.06.2010 13:12АлександрСтарый ОсколОтветить Не нужны мониторы с Display Port. Это ограничение вполне можно обойти, использовав переходники, как в этом видео:
Переходники эти (активный переходник с питанием от ЮСБ) стОят очень дорого(до 150 баксов за штуку!!!) и их в России найти и купить нереально (и стоили бы они тогда под 200$) - смысла в их покупке НЕТ т.к. дешевле купить моники с дисплей портами, а точнее чуть менее дорого! Не нужны мониторы с Display Port. Это ограничение вполне можно обойти, использовав переходники, как в этом видео:
Переходники эти (активный переходник с питанием от ЮСБ) стОят очень дорого(до 150 баксов за штуку!!!) и их в России найти и купить нереально (и стоили бы они тогда под 200$) - смысла в их покупке НЕТ т.к. дешевле купить моники с дисплей портами, а точнее чуть менее дорого! Не нужны мониторы с Display Port. Это ограничение вполне можно обойти, использовав переходники, как в этом видео:
Переходники эти (активный переходник с питанием от ЮСБ) стОят очень дорого(до 150 баксов за штуку!!!) и их в России найти и купить нереально (и стоили бы они тогда под 200$) - смысла в их покупке НЕТ т.к. дешевле купить моники с дисплей портами, а точнее чуть менее дорого! Не нужны мониторы с Display Port. Это ограничение вполне можно обойти, использовав переходники, как в этом видео:
Переходники эти (активный переходник с питанием от ЮСБ) стОят очень дорого(до 150 баксов за штуку!!!) и их в России найти и купить нереально (и стоили бы они тогда под 200$) - смысла в их покупке НЕТ т.к. дешевле купить моники с дисплей портами, а точнее чуть менее дорого! а тебя чё жаба чтоли давит что НВ купили бэтмана ???????? xd
Нет. Просто напоминаю, что учитывать эту игру, как образец применения физикса не совсем корректно. 3 дешёвых моника ты невозьмёшь!!!! нужны моники с дисплэй портом, дешёовыми они быть немогу пока что в принципе....
Не нужны мониторы с Display Port. Это ограничение вполне можно обойти, использовав переходники, как в этом видео: http://www.youtube.com/watch?v=bve1qFzAXVw да и один хер с высоки разрешением таким как 5760*1080(1200) несправится даже 5970... а так даа можно купить дешовых мониторов и сидеть смотреть на дерьмовые мониторы ;)
Говорите, что даже 5970 не потянет? Смотрим и удивляемся возможностям видеокарт ATI: Rdeon HD 5870 Eyefinity против игры Dirt 2 в разрешении 5760х2160 (6 мониторов) http://www.youtube.com/watch?v=JMbHZ8Mn__g Batman можно вообще не упоминать - он полностью куплен Nvidia и было бы странным, если игра не включала бы в себя убогий физикс. И почему это "EyeFinity не для бедных"? Вполне можно купить 3 (4, 5, 6) самых дешёвых монитора и получить тот же эффект, что и при покупке дорогих. А вот с 3D так не выйдет - один монитор, поддерживающий эту функцию, обойдётся как 2 обычных.
а тебя чё жаба чтоли давит что НВ купили бэтмана ???????? xd 3 дешёвых моника ты невозьмёшь!!!! нужны моники с дисплэй портом, дешёовыми они быть немогу пока что в принципе.... да и один хер с высоки разрешением таким как 5760*1080(1200) несправится даже 5970... а так даа можно купить дешовых мониторов и сидеть смотреть на дерьмовые мониторы ;)Есть такая фишка PhysX, на стадии развития, реально работает, поддерживается эксклюзивно видеокартами Nvidia. AMD Radeon в аутсайдерах.
Эко вам мозг то маркетологи nvidia промыли. Дальше по порядку: Почти два года назад была куплена GTX260-я,и уже тогда нас зомбировали:CUDA,PhysX. Помню как скачал с их сайта демку... Дальше-больше,теперь ещё и 3D Vision втирают,не говоря нам,что даже SLI из двух 480-х в новых игрушках с ним едва справляется. А теперь расскажи мне,дорогой(не беря в расчёт шум и температуру) о достоинствах данной видеокарты по сравнению с уже упомянутой 5850-й,которая движением одного пальца превращается в 5870-ю...Есть такая фишка PhysX, на стадии развития, реально работает, поддерживается эксклюзивно видеокартами Nvidia. AMD Radeon в аутсайдерах.
Эко вам мозг то маркетологи nvidia промыли. Дальше по порядку: Почти два года назад была куплена GTX260-я,и уже тогда нас зомбировали:CUDA,PhysX. Помню как скачал с их сайта демку вармонгера и был в шоке от того,что можно разрушить буквально всё и кирпичики так круто разлетаются.И что же дальше?А ничего,во всех играх якобы поддерживающих PhysX он был настолько криво реализован(включая Cryostasis, Mirrors Edge...),что что он есть,что его нет... Дальше-больше,теперь ещё и 3D Vision втирают,не говоря нам,что даже SLI из двух 480-х в новых игрушках с ним едва справляется. А теперь расскажи мне,дорогой(не беря в расчёт шум и температуру) о достоинствах данной видеокарты по сравнению с уже упомянутой 5850-й,которая движением одного пальца превращается в 5870-ю... И почему это "EyeFinity не для бедных"? Вполне можно купить 3 (4, 5, 6) самых дешёвых монитора и получить тот же эффект, что и при покупке дорогих. А вот с 3D так не выйдет - один монитор, поддерживающий эту функцию, обойдётся как 2 обычных.
Сам лично сравнивал, все заметно. А по поводу того, что мол api PhysX продвигается зелеными путем предоставления привилегий игрописцам, так тут не чего странного нет, руночная экономика, рыночные отношения, покупать не кто не заставляет, да и с отключеным PhysX не многое, как вы сами заметили, теряется, так что тут все путем. Есть такая фишка PhysX, на стадии развития, реально работает, поддерживается эксклюзивно видеокартами Nvidia. AMD Radeon в аутсайдерах.Ага, расскажи...))) PhysX в Batman, Cryostasis, Mirrors Edge... весьма приятно смотрится. CUDA эффекты в JustCause 2 тоже тема.
Batman можно вообще не упоминать - он полностью куплен Nvidia и было бы странным, если игра не включала бы в себя убогий физикс. Что касается других игр - ни каких особых отличий в визуальном плане от включения физики нет. При включённом физиксе какой ни будь предмет (на пример ящик) разлетается на 200 частей, вместо 180 с отключённым. Вы увидите существенную разницу? Нет. Её даже при одновременном воспроизведении на двух соседних экранах не видно (если интересно - поищите на ютубе ролик от компании Evga - на нём как раз и приводится отличие). И почему это "EyeFinity не для бедных"? Вполне можно купить 3 (4, 5, 6) самых дешёвых монитора и получить тот же эффект, что и при покупке дорогих. А вот с 3D так не выйдет - один монитор, поддерживающий эту функцию, обойдётся как 2 обычных.Nvidia уже какой год парит людям мозг своими "революционными" технологиями,которые большинству рядовых пользователей сто лет не приснились.
Ага, расскажи...))) PhysX в Batman, Cryostasis, Mirrors Edge... весьма приятно смотрится. CUDA эффекты в JustCause 2 тоже тема. 3D конечно сафсем для богатых, но и EyeFinity не для бедных))) А то что можно и без этого всего гамить, так ктож спорит, можно и на AGP 7900GS гамить, и что? При чем тут как можно без чего либо???...Цена зверская!Radeon 5850 столько же стоит.
Дык она с Radeon 5850 и рядом не стояла,ей скорее 5830 конкурент. Shnir' CUDA,PhysX,3D Vision,зооомби :-) Nvidia уже какой год парит людям мозг своими "революционными" технологиями,которые большинству рядовых пользователей сто лет не приснились.Цена зверская!Radeon 5850 столько же стоит.
А у Radeon 5850 нет поддержки PhysX, CUDA и 3D Vision Surround. Лишь EyeFinity и фсе.