RTX 4090 REVIEW / THE WORLD'S MOST POWERFUL VIDEO CARD!
2022 ж. 20 Қаз.
793 353 Рет қаралды
✌In this video we will try the new 4090 for $2500
💲All PC hardware list below:
1. Mother GIGABYTE B560M H - fas.st/z3zSJz
2. Proc Intel Core i5-11900K - fas.st/EUi9x
3. Vidyakha Palit GeForce RTX 4090 GR - fas.st/yyjl7
4. Hull XPG Battlecruiser: clck.ru/sWkNM
5. RAM XPG D60G: clck.ru/sWkPt
6. SSD XPG S70 Blade: clck.ru/sWkR4
7. LSS XPG Levante: clck.ru/sWkS6
8. XPG Core Reactor power supply: clck.ru/sWkSf
✭ SAVE how I do it - letyshops.ru/YanShelestX
✌ Subscribe to the Channel - bit.ly/32Q2qFL
✌ For cooperation: shelest@plaza.agency
Tags: rustling, shelest, pc, yan shelest, nvidia, pc, intel, SHELEST, AMD, PC MY COMPUTER, pc build, msi, xpg, 2042, RTX 4090, Palit, 4090, NVIDIA, RTX 4090 REVIEW, MOST POWERFUL
#rtx4090 #4090
след вид про сбор из маг
ок
когда в вк ответишь?
Сделай пожалуйста сборку пк за 60 к
@@rvach20 в сборку видео выше ставишь 3050 вместо 1630. Все
Спасибо за рекламу прогара кстати
К следующим поколениям видеокарт похоже надо будет докупать уже электростанцию
У Тони Старка спиздить
Точно....)У всех на балконе подстанция будет стоять.....
крутить педали будешь во время игры
а теперь представьте, что ведь тоже самое думали люди, создавая микропроцессоры размером с квартиру несколько десятков лет назад...
Да хрень это все. Сегодня поставил себе 4090 MSI Gaming X Trio. У меня БП на 850 Вт...и все отлично летает. Правда и проц всего 9900kf, он то жрет до 120Вт, а вот если поставлю 7950х..то уже скорее всего придется идти за киловаттом..
Каждое поколение видеокарт говорят «Её хватит на 10 лет» ахахаха
не ну че 1080 еще тянет. да карты может хватить на 10 лет, но с таким учетом что черрез 6 лет она будет тянуть все в низко среднех. хорошо если через 10 лет она будет запускать игры вообще. ну а если ты там занимайешся монтажо,фотообработкой и т.д то 1080 хватит
@@metalhead0 кокраз всё наоборот)
на 10 лет хватит 4090, индустрия игр в жопе, нормальных игр за год не выходит
1660 super с i3 12100f у меня до сих пор в новинках на ультра +- максимальные 60+ кадров.
ну на что-то хватит а на что-то и нет, эта фраза про 10 лет на столько размыта и субъективна что и спорить смысла нет
Эти пожелания в конце были так приятны, большое спасибо Шелест. Правда, без прикола, мне было очень приятно слышать это.
Спасибо за все то, что ты делаешь на канале. мне нравится смотреть твои обзоры. +- с 14 лет сижу на твоем канале. сейчас мне 18 и иногда открыть твой видос для меня очень приятно. приятно видеть, что Шелест все так же стабильно снимает и выкладывает. впервые говорю тебе спасибо. жду следующего видоса!!!!!!!!
+++
с чего такая уверенность, что этой карты хватит на десять лет вперед ? Помните что случилось с картами, которые не стали поддерживать апи Вулкан ? Если ваша карта не поддерживает актуальные фишки, то кому она нужна ? А какие программные фишки будут актуальны в будущем , сегодня пока не известно.
моей карте 10 лет и она тянет на низких все совоеменные проекты
В чем вообще фишка вулкана?
@@remarkkk 670. Не прям каждый, но 90% тянет. В 30, на низких, но тянет
@@MAXTRIPLEAAA так и я неплохо пока сижу на gtx660 , но я говорю сейчас о будущем игрового железа , пойди угадай что там придумают программисты или производители железа. Хотят сделать квантовый процессор , как вы думаете, он будет поддерживать direct x12 ?😆
Это же шелест, любой разбирается в технике лучше него..
Я думал 12 октября крупные РФ блогеры по таймеру выложат заранее отснятые обзоры на ртх 4090. Как же я ошибался... Видимо из за санкций действительно всё не очень хорошо в этом плане
импортозаместились блогеры и точка.
@@yanshelest будем посмотреть, какой ход сделает АМД. Надеюсь они так же нас удивят новыми мощами)
Спасибо за обзор, мне даже немного не по себе смотреть как 700вт блок питания нагружается на 850 в моменте, и система устояла при этом. Вообще в такой ситуации БП мог пробить один из силовых ключей и устроить короткое замыкание с вышибанием пробок.
Видосы шелеста как отдельный вид искусства. Будет тестить на 750w ибо лучше нет. Взял одну из самых маленьких 4090 и такой "ну в принципе она не такая большая"
У меня у крупного блогера денег нет на подобную видюху, чисто дали на день, Но в целом связка 4090 + 8к моник вполне доступны.
@@user-ot5ng9yr8s 8к моник… От создателей rtx 5090ти
@@user-ot5ng9yr8s чё он несёт
+++
0:14 что это идиот ваще городит начиная с первых секунд!🤣
спасибо большое тебе за контент))
Это гениально запихать видяху за 150к в пакет из пятёрочки 😂
маскировОЧКА
Странно, что после покупки 4090, ему хватило на этот самый пакет
@БАНДИТ параша ёбанная, если бы мой сын такое сделал я бы уже давно повесился, особенно если бы узнал что он пиарится в комментариях
@@user-ke7gt6zo3l он на день взял
дада
А как запитали? Ещё один кабель брали или с 3 запитали? 3тий в сразу 2 просто запихали?
Здравствуйте, а вот интересно если масштаб разрешения увеличить что будет?))
Спасибо большое за видео! Всё по делу без лишней болтовни!!!! А карта хороша зараза)))))
Добрый Шелест! Спасибо за обзор!👍
Наконец то шелест запилил видосик с 4090 🖤
Подскажите!!! С сынлм собираем ПК особо неразбираюсь но будет все по максимуму видюха 4090 процессор райзен 9 7950. А остальное что брать???? Сечас стоит старичек на i9 и 2080 супер. На полном водином охлаждении
Вопрос: зачем в rdr 2 включать dlss(производительность) в 4к, с ультра присетом и rtx 4090 на борту. Можно было включить dlss(качество) , и ты получил бы скорее всего свыше 60 кадров.А так получается немного мыльно. Если я недостаточно что-то разобрал, можете ответить.
да он с одной стороны поставил 4к с другой эти же 4 к задушил длсс ом ..
Блин, хороший ролик. Было интересно, спасибо)
Мир вам и успехов в благом... И благодарю за пожелания😉🤝👍
То есть , 3090 ti за 200 к купить без проблем, а 4090 за 148 к это много и совсем не нужно, забавно...
в данном случае нужно понимать, что ты не просто покупаешь видяху, но и вынужден подстраивать свою систему под неё. это 4к 120гц монитор Минимум, хороший бп и в идеале хай-енд проц, который(если верить тестам) всё еще тормозит процесс в некоторых играх вроде паука и контрол, тк не способен отдать на обработку больше кадров и гп часто находится в ожидании. получается ты платишь 1600$, но карта не будет отрабатывать тебе каждый потраченный доллар, если у тебя слабый сетап. в общем здесь дело не в том, что она дорогая, а в том, что ты заплатишь круглую сумму, но чтобы оправдать покупку, придется вложить немало сверху.
@@samuraj3725 Да я и не спорю, но покупаю такую карту , потому что хочу, что б она у меня была, со своего 2к монитора я не слезу
@@samuraj3725 Ну от процов же не требуют что бы они маслали на 100% 24на7, или опера что бы была забита под завязку всегда) Почему к видео карте другое отношение? Ну будет у тебя в одной игре на 70% нагрузка в ней, а завтра в другом не оптимизированном кале уже и 4090 сядет в лужу. Как вообще может быть "лишняя" производительность?) Это равно сильно что "лишние" деньги)
Я так понял он переехал в РФ, и теперь без рекламодателей да с переездом не до новых топ карт. Интересно переезжал что бы на Украине в армию не забрали?) А тут свинью подложили уже и в РФ забирают) Хотя конечно без гражданства его не кто не заставит никуда идти.
@@RazoxVG потому что если ты переплатишь 50$ за оперативку, это выглядит не так затратно на фоне двух гп с разницей в 1к$(между условной 3070.) вот чел сверху сидит на 2к мониторе и какой профит он получит от этой переплаты? у него везде будут те же показатели на выходе, что и на младшей карточке. это не только моё мнение, любой тест покажет что 4090 может в 4к 120, в принципе для этой цели и на таком монике она и покупается, остальные просто заплатят за воздух и будут сидеть как раньше. предвижу аргумент по типу "ну её же можно купить на вырост, на будущее" - да, но это можно сделать в любой другой момент, спустя год или 2 когда она уже не будет так стоить и ты ничего не потеряешь.
Краткая суть всех тестов что я смотрел это то что карта нужна чисто для 4 к ультра игр так как фпс как и на 3070 TI но если поменять на 2к и 4к то 4090 хорошо себя чувствует а 3070TI которая ноздря в ноздрю шла уже падает по фпс заметно
Здравствуйте. У меня такая странная проблема. У меня RTX 4090 от Гигабайт ОС. Но почему-то у меня не работает DLSS 3. В Майлзе Моралисе например кнопка Генерации Кадров светится серым и написано, что только на 40-ой серии, а Киберпанке строчки такой вообще нет. Подскажите, как быть? Инфы в интернете вообще не могу найти :(
Скажи пожалуйста, как называется у тебя монитор на котором ты тестил RTX 4090??
Видео как всегда хорошо и качественно смонтировано, но содержание... Щас бы советовать к 4090 блок на 850 ватт, что бы ''запустить'' её) запустить ты её может запустишь, но на постоянке, в длительной нагрузке он у тебя расплавится либо будут другие проблемы. Хорошие блоки могут в короткий период работать в овервольтаже, но это не значит, что так можно долго сидеть. Для такой карты и спокойного пользования нужен хороший запас мощности. и зачем ты везде ставил длсс при чем в производительность? это дикое замыливанние картинки и режет разрешение, там никаким 4к и тем более 8к даже не пахнет. Даже длсс качество режет разрешение, а производительность так вообще ужас. Нужно было тестить без длсс, либо хотя бы в уровень качество. Потому что производительность это только для слабых карт, кому нужен фпс, и пофиг на картинку. Ну такое...
Согласен с тобой Вот пусть три месяца протестирует такой пк на 750 ватном блоке, что с ним случится по итогу. Плюс все в длсс на производительность "ну да управление как жвачка, но не мешает" просто кринж.
@@Alex-zp3of а ведь кто то посмотрит етот видос и реально на постоянку купит блок на 750ват))), вот палит и хату спалит через бп
Чел запас мощности слишком преувеличен. У меня 1080ти с 9900к на блоке 500 ват бронзовом уже пятый год летает и все норм
@@dexterdex7609 если блок питания работает на всю свою номинальную мощность в течение долго времени, то самый плохой вариант - это возгорание. Тк через провода идёт такая сила тока, которая способна их поплавить. Не просто так у блоков питания написана мощность. И ее нельзя держать на пределе.
Падскажите пажалуйста я хачю купить нойте бук асус 526гигабайт ссд 8 оперативи и сейчас вопрос с какой видео картой лудше взять 3060 или 3060ТІ. Извините за ошибки я не из россий и не знаю русский
Не подскажите какой у вас вейп.Я увидел у вас ремешок с линейкой
Отличный обзор, спасибо.
Кстати я заметил что с каждым удвоением разрешения разница в восприятии уменьшается, тобишь 1080р сильнее отличается от 2К чем 2К от 4К, разница с 8К будет заметна ну на очень больших телевизорах!
Это при условии одной и той же диагонали. Но весь прикол в том то и есть, что заместо 22х дюймового 1080п монитора взять скажем 32-42дюймовый 4к. при этом либо сохраняя плотность пикселей, либо даже повышая. У меня старый моник 1080п 23 дюйма, и сейчас 1440п 32д, плотность пикселей у них почти идентична. Но естественно куда приятней играть на большей диагонали, да и текстуры лучше видно, там где на 1080 гладкая кожа, 1440п уже видно слегка морщины и т.д. Думаю при 4к на 42 дюйма уже можно было бы прям чётко видеть эти условные морщины. А с 8к на скажем 48 дюймах вовсе сказка детализация будет. Ещё плюс повышения даже просто плотности пикселей, это уменьшения артефактов изображения (аляизинг) и прочее. Получить максимально стабильную картинку без дефектов.
типа глаз уже не видит разницы ?) это Шож получается все эти мониторы 4к и дальнейшие 16ка вовсе маркетинг и нафиг не нужны ?)))) я могу сказать за свой экран смарта, 2к при 6.5дюймах, вот там такая четкость бешеная, любой моник 4к обосрется.
Когда Шелест сказал все будет нормально, я почувствовал это!
за назву огляду - ЛАЙК!
смысл тестов со включеным dlss?
Купил себе Gigabyte 4090 Gaming OC, это просто восторг! Но не согласен с тем, что её хватит на много лет. Думаю, в 4к уже через года 4 её начнет не хватать, увы. Но сейчас - это нечто!
В ближайшем будущем планируется один единственный проект, в котором будут проверяться видеокарты так, как последние годы в киберпанке - это новый ведьмак. В теории это единственная игра, в которой может не быть 60 фпс в 4к на ультрах с лучами на 4090.
@@user-pd5kz7xx3c вряд ли новый Ведьмак станет таким проектом. Он ведь делается на UE5, а не на кривом движке CDPR, который и был причиной такой ужасной производительности. Я верю в то, что GTA VI сможет заставить даже будущую 5090 попотеть, точнее я хочу в это верить.
@@user-pd5kz7xx3c так в 4к с рт без длсс всего 40-45 фпс, просто шелест об красиво умолчал и сделал все тесты ищо на длсс-производительности))) с упором в проц
@@user-pd9ql6dz4w ДЛСС создана, чтобы ее включать и поднимать фпс, а не отказываться)
зачем 4года, 2года и 5090 будет надо брать уже
Для 4090 и 12700k бп 850w gold be quiet 11 хватит?
ролик лукас!! 10 лет назад 4к смешно было!! хотя многие до сих пор на fhd угорают)) карта конечно пушка! хуангу можно спать спокойно 5 лет))
для full hd её хватит и на 15 лет
Що за корпус на 3:00 та 6:09 ? Буду вдячний за відповідь.
Наконец-то, ждал этого обзора от тебя)))
как называется программа которые вы проверяете FPS ?
интересно, какими будут 5090, 6090 и т.д.. кажется, это будет уже квантовая мощь)
скорее всего они будут по размеру расти )))) как эта с мой корпус
@@darktoon873 там по факту охлаждение все место занимает..
знаете в чем прикол ? будет и 6090 и 7090 и 8090 а графика как была уровня Кризисиса 2008 года так и останется )) графика то не сильно выросла по сравнению с этими видяхами... вы посмотрите какая графика на ультра в том же Алиен изолейшен 2014 года... или в Ведьмаке 3.... посмотрите , это игры 14,15 года ЛОЛ ... и такой уровень графики спокойно тащит старая 1060 , да там не 4ка, но тем нимение.
уже вышла чтоли?
Вот интересно. Через сколько времени человеку придётся бежать за новым блоком питания пользуясь твоим советом? Лично я рекомендую не нагружать блок питания более, чем на 60% от его общей мощности. Киловатник конечно дороже, но с моей рекомендацией понадёжнее.
Опа давно на твой канал не заходил
Запомни, тестировать надо без DLSS!
да ето тесты на коленке, передернул шелест и ушел в закат)
Объясните мне пожалуйста, почему при увеличении 4к оно выглядит красивее, чем увеличение 8к?
Может потому что мыло?
@@user-sh7ds9wg6m ну а почему так получается? 8к должно же быть наоборот лучше
"Dlss производительность" размывает 8к сильнее чем 4к
@@user-nw3bl3qp7z спасибо
Шелест, скажи ещё раз пожалуйста во сколько раз 8к больше 4х а то я не понял
Если вдуматься то раньше ПК были с челые жилые комнаты и через время всё стало становиться меньше, но Nvidia подумала такая и решила вернутся к старому варианты, в будущем линейку 100 наверно будет как два Atx корпуса
Интересны тесты 30го поколения против 40ой серии в проектах без поддержки DLSS 3. Вот там сразу станет ясно, насколько актуальна 40ая серия за свою цену против кучи доступных сейчас 30ток на рынке.
замайненых )
Шелест а можна обзор про монітор Qube b24f75 va Думаю взяти бюджетний монітор для ігор Порокомендуй і скажи всі плюси ок ?
Спасибо за видео❤
Зачем тестить 8к при длсс, если от этих 8к остается отсилы 1440p
Чтоб повы*бо*атся, она без DLSS и в 4к в 40-60 фпс игры тянет)
Тот момент, когда в феврале купил 3070 за 100к и это было дёшево😅 сейчас 4090 - 140
Лох
ты люто пpoeбaлcя, 3080 сейчас стоит 40-50к (сейчас 50к, месяц назад было 40)
селяви)
3060 ти купил за 90 в ноябре 21, а 3090 купил за 70 в этом месяце 😂
@@Aflict2709 богатенький
Привет, на каком сайте ты измерял энергопотребление?
Почему тесты были в режиме Вулкан,а не в Директ х 12 , ведь это не АМД бранд карта?
Такую карту хорошо тестировать с 13900К , смотрел тесты вот там карта работает отлично и адекватно загружена , не люблю в тестах двойные окна с лева 4К с права 8К это не претензии автору это моё имхо ко всем таким роликам в остальном, ролик классный ибо суть блока питания очень актуальна для многих людей.
Для 4 к не нужен такой Проц по идее
Странный ты, тебе окна двоят, чтобы ты наглядно на абсолютно синхронной картинке видел разницу в показаниях - а тебе не нравится. Лол.
У меня на 3090 проц был 8700к. И карта работала на полную. При этом в разрешение не 4к, а в 2880х1620. По сути для 4090 хватит того же 9900к легко. Заказал себе такую же карту. Проц 10900к, все ядра разогнаны до 5200ггц.
Слабо конечно, не буду брать в этой жизни наверное. Подожду 50090 чтобы без проблем играть в 1024к
Что ты несёшь? "Было странно выпускать 4000 серию" Ничего что будут выходить новые игры, где требования будут выше, как бы вышел ue5 где теперь разрабы смогут ещё круче графон сделать, и всё остальное, приколол конечно...
Так игры делают в основном для консолей
@@user-sh7ds9wg6m Те игры которые выходят на консоль и пк, на пк игру делают всё же более проработанной, посмотри ту же гта 5 какая она выходила на пс3 мыльная и потом через год на пк с намного круче графоном
хороший видос. Лайк
Шелест, длсс 2 или 3 в тесте в кибере?
О какой лютой мощи идёт речь!? Если ты все игры запускаешь с dlss, тем более в режиме производительность. Если бы эта карта могла в нативном 4к и тем более 8к
Да, нужно самому пойти сделать обзор на свою 2060, и показать как она круто тянет всё в 100 фпс с лучами и херами в 1080п с длсс ультра производительность)
4к эта карта отлично вывозит, 3090 уже это делала в большей части проектов, если эту глупость в виде лучей не врубать. я бы брал 21:9 wqhd который между 2к и 4к эта видюха для этих моников потянет все что угодно с кайфом.
Я в шоке.... 4090... Вот это та мощь, которую мы все так долго ждали!
я посмотрю что ты скажешь через 2 года когда появится 5090 ты скажешь Вот этого я ждал. и да 4090 не тянет 8К в 144 фпс а 5090ti тянет игры 2022-2023 года в 16К 40fps
@@VitalayManin хаапааххаахах, да не ты что) Просто офигел, что уже существует такая видюха. Я от 3090 в шоке, а тут... Из-за этого у меня такая реакция)
@@HellGGLeon вот я и посмотрю на новую реакцию. я кстати успел купить 3090 еще до повышения цен... купил за 115.000 и буквально через 14 дней она сала 350.000 и практически исчезла
@@HellGGLeon адекватная цена на 4060 20.000 рублей не дороже!
@@VitalayManin поздравляю конечно. Вкусная цена для такой-то видюхи)
Спасибо) И тебе желаю иметь дома 4090 и две почки.
2:29 опа шнур от чарона)
Я помню как мы с другом после выхода rtx двадцатой серии рофлили что дальше будет rtx 3000, rtx 4000. А сейчас сижу и смотрю обзор на Rtx 4090. Всё таки время быстро летит
Порофлишь когда выйдет 9000-сячная серия, а дальше что будет? RTX 12090?
@@Flyingfast... Ну вот мы буквально на днях и думали а что будет будет после 9000. 10000?
@@zloydemon9310 а почему-бы и нет) Да и это не скоро будет.
@@Flyingfast... Мне кажется будет новая линейка, Раньше были GTX, сейчас RTX, а потом выйдет новая технология, и соответственно новые карты. Особенно если учитывать что нвидиа ударилась в ИИ, чтобы показать инвесторам, что они хоть что-то новое делают.
Это просто жесть. Будущее уже здесь :) 450 ватт потребление, 60 фпс при 8К!!!! Это просто в голове не укладывается, я не представляю как теперь нужно работать разработчикам игр, чтобы хоть как-то нагрузить эту видеокарту при фулл шд, и какого качества можно достигнуть, а что мы получим от 50X0 серии, уже просто не куда двигаться... просто... жесть...
Разработчики крайзиз просят тебя подержать их пиво
bol'shooooj сhlеееen bol'shiiiiije jaytsaaa. Реnis.
А зачем нагружать? Наоборот, надо стараться оптимизировать игры!
Я хотел комп с компонентами которых хватило бы на долго чтоб не менять часто комп, но узнав цену передумал , хоть желание осталось.
Крутой обзор! Надеюсь через лет 5 уже обычное дело будет играть в 8к.
Когда купил себе мощную видеокарту, а настройки в играх по привычке выставляешь на сверхнизкие)
Не народная(((
Многие сидят на 980 или 1080 и им балдёжно ( Ну естественно у них минок фул хд или 2 к)
У меня 1650 везде на высоких настройках т к 4гб 60+
Будут народные... через лет 5
странно но когда я перехожу по ссылке где написано Palit 4090 меня закидывает на телемарт где Rtx 3070 Ti
Как называется программа которые проверяете железо?
Скажи это видюхам 2012, если память не врет то 600 серии, то есть 680, либо 690 должна все тянуть?
2:27 аиии , линеечка от smoant
Этот твой 750 ваттник не слишком жарким летом должен тащить 1 киловатт нагрузки и не перегреваться, по крайней мере мой голдовый Сисоник g12 750 с подобной нагрузкой не только справлялся 24 на 7, но и остался вполне жив и до сих пор усердно трудится в другом компе, он конечно пару раз потел летом, остывал и работал далее, я тоже люблю устраивать стресс тесты качественным железкам )
Привет хотел спросить про сборку Скажи пожалуйста стоит брать или нет? Ядро i5 12400f Мать GIGABYTE B660M Gaming x Охлаждение DEEPCOOL GAMMAXX GT BK Видео карта Palit GeForce RTX 3060 Ti DuaI (LHR) 8 gb Оперативная память 8gb Kingston FURY Beast Blac K 3200 MHz Накопитель SSD 512 GB M.2 NVMe A-Data XPG SX 8200 Pro Блок питания DEEPCOOL PK 650D 650W (80+Bronze) Корпус DEEPCOOL MATREXX 55 MESH ADD-RGB 4F
2:29 какая красивая линейка ;)
Привет. Сорри, что не в тему. Хотел спросить по поводу экрана ноута. Есть ли смысл переплачивать 40-45 баксов за 165Гц вместо 120Гц, если ноут в современных игрушках на высоких (ультра) настройках не выдаст больше 100 фпс? Но я бывает и в кс, и в дотку, и в мк11 играю, и там, естественно, на макс настройках за 200+ фпс.
Конешно переплати ты эти пару тясяч и купи по лучше. Поверь потом ведь когда купишь 120 герц ты пожалеешь что не купил 165 герц
1:57 скажи это quantum games у которого 4090 не влезла в корпус где стоит 3080
Сколько максимальный повер лимит у этой карты ватт 500?
А почему не вывел процент загрузки видеокарты? Что то мне подсказывает, что карта сильно не догружена... Потому и температуры такие низкие...
некого не смутил зарядки допустим от чарона которым он измерял?
За провод от чарона лайк)
Какой блок питания говоришь нужно брать, киловатник или 1250? ты просто так быстро пробежался, я аж не уловил мысль.
привет Шелест, скоро поеду на учебу, нужен ноутбук за 20 - 25 тысяч что б учиться можно было и кс, валорант и т.д погонять, не мог бы показать варианты, найти сам не могу и не эксперт увы
Эх сейчас бы новости на первом канале на 8к телеке посмотреть, каайф
Охохо, всё же нет пока летучего 8к гейминга, что-ж, будем ждать следующую линейку...
А зачем везде dlss на производительность ставить,оно же качество ест??? Для того,чтобы fps больше показать???
Тестить топовою видюху и включать dlss на производительность с лютым мылом и артефактами. Вау
Меня тоже это взбесило , нафига эти тесты тогда ?
@@lanamaksimoba8713 чувак отсебятину лепит, тесты на коленке, как низко же пал етот блогер
@@user-pd9ql6dz4w Судить не буду про блогера , потому что первый раз на канале , чувствую последний)
братик стоит ли того обновлять систему мне на 13900к и 4090 ? если у меня i9-12900k 3090ti 32ram SSD M2 1000t ?
По моему твой пк спокойно должен справлятся со свеми возможными задячами на сегодня без усилий. Отсюда вопрос, а зачем тебе тогда 4090? Игровая индустрия пока что топчется на месте и не может предолжить что то реально интересное, ну и ситуация в мире так же свои проблеммы накладывает. Пока что только ремастеры сплошные выходят и скучные "Конвеерные игры" по типу far cry, assasin, call of dyty где каждая новая часть только графикой и отличается, а сюжет повторяется из раза в раз. По этому моё мнение таково, что твой пк смысла обновлять ноль)
Длсс 3.0 вообще разная технология и она как я понимаю включается отдельно от 2.0. И насчёт задержки это проблема в самой технологии. Те есть згенерированный кадр нуждается в аж 2 нормальных кадрах и нужно ждать их - отсюда и задержка.
В пятерочке видюху купил?
как вспоминил 8К в старых играх на 2080TI, прослезился
Что за программа у него была на 5:23 ?
Всегда считал, что DLSS - это про супер-самплинг изображения, то есть это не честные 4К и 8К. Неужели корректно проводить тесты с DLSS и говорить, что видюха тянет 60 фпс на 8к?
Как называется сайт где шелест смотрел сколько ват потребляет пк?
Все ж таки, по суті, 3090 та 3090ті сильно впали перед 4090? Чи вся справа в більшій частоті роботи і новому DLSS?
60-70%
С одним лишним почкой ;))) убило б.жоқ бро
топ контент, хз почему у тебя нету 1 миллиона сабов
интересно будет посмотреть на плотность пикселей в 8к мониторе в 27"
Под микроскопом???
Почему тест с DLSS 5а производительность???? Почему не качество? Вот макс графика, а не производительность. Все на ютуб так делают, не пойму почему
для FallOut4 в full hd подойдет эта карта ?