User Tag List

Página 3 de 3 PrimerPrimer 1 2 3
Resultados 41 al 50 de 50

Tema: Zen5 ShitShow

  1. #41
    Avatar de uKER
    Fecha de ingreso
    Mar 2015
    Edad
    44
    Mensajes
    1,267
    Cita Iniciado por Master of the Wind Ver mensaje
    Los benchmarks tienen sentido si. En las condiciones en que se va a usar. Ahi ves la posta si te vale o no. Si traspolas la diferencia de 1080p al minimo con 4K al maximo, no tenes al final ni un 10% de la diferencia muchas veces.
    No sé qué quisiste decir.
    La cuestión es que la mejora que puedas ver de una CPU a otra en un benchmark a 1080 no se traslada a la vida real porque cuando pasás a resoluciones de la vida real dejás de estar limitado por CPU y la mejora de CPU prácticamente no genera mejora de performance alguna.
    ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB Corsair Vengeance RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
    Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Smart Soundbar 700 5.1

  2. #42
    El neandertal Avatar de Master of the Wind
    Fecha de ingreso
    Jul 2013
    Edad
    34
    Steam
    Master of the Wind
    Origin
    MasterOfTheWind1
    Xfire
    masterofthewind1
    Mensajes
    11,137
    Que los benchmarks tienen sentido si se usan en el contexto apropiado. Un 9800X3D con una 4090, a 1080p en low, no es el contexto.

    Si fuera en 4k ultra, ahi si serviria ver cuantos frames tira.
    // Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Antec AX81 - Asus Strix Soar - Windows 11 x64
    // Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
    // Display: Gigabyte M32U 32" 4K@144hz
    // Retro: Core i3 6100 3.7Ghz -16GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
    // Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
    // Server ITX: Cooler Master NR200P - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 7 2700 - 32GB RAM DDR4 - 1TB NVME SSD
    // Console peasant: Sony PlayStation 5 Slim - Nintendo Switch 256GB MicroSD + RCMLoader -
    New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD
    // Console no peasant: Steam Deck OLED - 1TB SSD - 1TB MicroSD

  3. #43

    Fecha de ingreso
    Nov 2023
    Edad
    42
    Mensajes
    89
    En términos de números objetivos están bien los benchmarks. Te da una idea clara de las fortalezas y debilidades del producto. Sin lugar a dudas que en el 99% de los casos quien compra una GPU super high end no va a estar jugando en 1080p y menos en low. Por ese lado, desde el punto de vista del consumidor que quiere jugar, este tipo de benchmarks no ayudan más que a aumentar el ego de algunos y promover las ventas en el subgrupo que no tiene claras estás cosas.

  4. #44

    Fecha de ingreso
    Jan 2014
    Edad
    43
    Mensajes
    1,098
    Cita Iniciado por Master of the Wind Ver mensaje
    Que los benchmarks tienen sentido si se usan en el contexto apropiado. Un 9800X3D con una 4090, a 1080p en low, no es el contexto.

    Si fuera en 4k ultra, ahi si serviria ver cuantos frames tira.
    Pero ahí estás equivocado , la comparación a 1080p si sirve.
    Una 4090 da mas fps hoy con un 9800x3d a 1080p que cualquier otro cpu de hoy y en un futuro una "9060" va a dar mas fps a 4k con un 9800x3d que con cualquier otro cpu de hoy.
    Lo que planteás es como comparar una rx6400 con una rtx4090 en una tele 720p/60hz y ta, activás el vsync porque quién va a jugar sin vsync en esa tele , se va a ver horrible. Y vas a llegar a la conclusión de que ta, no hay tanta diferencia entre esas dos tarjetas, y claro , porque la comparación está mal hecha.
    Después si es realista o no (no lo es) que alguien con una 4090 juegue en 1080p/low es otro tema diferente.

  5. #45
    El neandertal Avatar de Master of the Wind
    Fecha de ingreso
    Jul 2013
    Edad
    34
    Steam
    Master of the Wind
    Origin
    MasterOfTheWind1
    Xfire
    masterofthewind1
    Mensajes
    11,137
    Sirve en el mundo teorico. En el mundo real quien va a usar esa combinacion de cpu y gpu a 1080p?

    Es solo eso. Un bench. No un dato relevante. Si en esas condiciones da un 50% mas, quiero ver si en 4k lo hace


    Y tu ejemplo es rebuscado. Quien tiene una tele 720p hoy, y mas para juntarla a una 4090?
    Última edición por Master of the Wind; Hoy a las 04:34 PM
    // Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Antec AX81 - Asus Strix Soar - Windows 11 x64
    // Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
    // Display: Gigabyte M32U 32" 4K@144hz
    // Retro: Core i3 6100 3.7Ghz -16GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
    // Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
    // Server ITX: Cooler Master NR200P - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 7 2700 - 32GB RAM DDR4 - 1TB NVME SSD
    // Console peasant: Sony PlayStation 5 Slim - Nintendo Switch 256GB MicroSD + RCMLoader -
    New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD
    // Console no peasant: Steam Deck OLED - 1TB SSD - 1TB MicroSD

  6. #46

    Fecha de ingreso
    Jan 2014
    Edad
    43
    Mensajes
    1,098
    De nuevo master... lo que estás midiendo a 4k ultra es que tan poderosa es la gpu , con muchos cpus y en muchos juegos , vamos a decir una 4090 a 4k/ultra van a tirar los mismo fps , pero en un año con una 5090 con los juegos del año que viene? que tan seguro estás que no va a haber una diferencia notoria?
    Si vas a comparar cpus(que es lo que hicieron es esos benchmarks) no podés estar limitado por la gpu y la configuración de los gráficos , no tiene mucho sentido hacer esa comparación.
    Yo di mi opinión mas arriba, en general la mayoría de la gente va a tener mejores resultado con un cpu mas chico y poniendo mas $$$ en la gpu , estamos totalmente de acuerdo de que con un 9800x3d y una 4090 no vas a jugar a 1080p/low , pero eso es otra cosa diferente a como hacer una comparación que tenga sentido.

  7. #47
    El neandertal Avatar de Master of the Wind
    Fecha de ingreso
    Jul 2013
    Edad
    34
    Steam
    Master of the Wind
    Origin
    MasterOfTheWind1
    Xfire
    masterofthewind1
    Mensajes
    11,137
    Si, entiendo el punto de comparar CPU puro. Pero es un escenario que no aporta en lo mas minimo porque nadie va a jugar con la fuerza del CPU puro. El que evalua meter update o armar una build nueva no le dice absolutamente nada ese numero. Es un numero muy tech geek para ver quien tene razon en un post de un foro o reddit. Al consumidor le dice poco y nada. Porque, sin ir a extremos, si la diferencia por ejemplo entre el 9800x3d y el 7800x3d es de 50 fps, esos fps no se van a ver un carajo dentro del juego cuando la GPU entre a hacer fuerza. Ese bench al usuario normal, el que tiene la guita para ver en que gastar no le dice nada.

    Que de nuevo, no son CPUs gama baja. Para un caso que se juegue solo al Valorant con su integrada. Son CPUs que se emparejan con una buena tarjeta de video de nivel entusiasta, para verse en una pantalla entusiasta, con settings acordes a eso.
    // Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Antec AX81 - Asus Strix Soar - Windows 11 x64
    // Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
    // Display: Gigabyte M32U 32" 4K@144hz
    // Retro: Core i3 6100 3.7Ghz -16GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
    // Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
    // Server ITX: Cooler Master NR200P - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 7 2700 - 32GB RAM DDR4 - 1TB NVME SSD
    // Console peasant: Sony PlayStation 5 Slim - Nintendo Switch 256GB MicroSD + RCMLoader -
    New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD
    // Console no peasant: Steam Deck OLED - 1TB SSD - 1TB MicroSD

  8. #48
    Avatar de uKER
    Fecha de ingreso
    Mar 2015
    Edad
    44
    Mensajes
    1,267
    El benchmark a 1080 sirve si lo que se busca es saber si una CPU rinde más que otra, como dato anecdótico, pero si mirás la mejora de rendimiento entre un procesador A y un procesador B a 1080 y actualizás CPU creyendo que vas a tener esa mejora jugando a una resolución "real world", vivís en Narnia.
    ASRock B650M PG Riptide / Ryzen 5 7600X / 2x16 GB Corsair Vengeance RGB DDR5 6000 / Gigabyte RTX 4070 Ti Super / SSD T-Force Cardea Z540 2 TB / HDD HGST 4 TB
    Grabadora Blu-ray UHD Pioneer / 2 controles Xbox One X / 8BitDo M30 / Monitor LG 27" 4K 144 Hz HDR IPS GSync / TV LG C3 OLED 65" 4K HDR 120 Hz GSync / Bose Smart Soundbar 700 5.1

  9. #49

    Fecha de ingreso
    Jan 2014
    Edad
    43
    Mensajes
    1,098
    Cita Iniciado por Master of the Wind Ver mensaje
    Si, entiendo el punto de comparar CPU puro. Pero es un escenario que no aporta en lo mas minimo ...
    Si aporta , master. Si vos ves que en promedio cpu C tira 300 fps y cpu B tira 400 y cpu A tira 500 vos sabés que cpu A te va durar mas tiempo antes de actualizar que cpu B , que a su vez te va a durar mas tiempo antes de actualizar que cpu C.
    Hay mas cosas además en esos reviews, como el consumo , las temperaturas , los precios. Después si sirve o no depende de muchas cosas.

    Y el edit que recién vi , no solo es rebuscado sino que el punto es que está mal hecha la comparación.
    No podés comparar gpus y que los resultados no dependan de las gpus.
    Vos entendiste el punto por lo que escribiste, pero por si alguien no lo entendió vamos a cambiar la tele 720p/60 por un monitor 4k/120.
    Ahora las comparaciones las hacemos con el Diablo 2 original , el Starcraft y el Warcraft II. Y de nuevo, vas a sacar la conclusión de que una rx6400 y una rtx4090 andan igual. Eso porque la comparación está mal hecha, así como está mal hecha una comparación entre cpus con juegos a 4k/ultra.

  10. #50
    El neandertal Avatar de Master of the Wind
    Fecha de ingreso
    Jul 2013
    Edad
    34
    Steam
    Master of the Wind
    Origin
    MasterOfTheWind1
    Xfire
    masterofthewind1
    Mensajes
    11,137
    Pero que necesidad de llevarlo al extremo ridiculo que tenes. Si no es a 1080p es a 720p. Si no es a 720p es con juegos de hace 30 años. Es joda?

    Tan dificil es hacer benchmarks en condiciones similares al objetivo del producto? No será porque las barritas no crecen casi nada, igual que el pito virtual de los fanboys?

    Es bastante falaz todo lo que decis. Muy lindos los 300 fps de diferencia en esas condiciones entre 2 CPUs, si cuando vas a jugar te tira 5 fps de diferencia. Vas a gastar guita por 5 fps mas, en un CPU high end?

    Agarra el 14900k y baja generacion a generacion hasta el 10900k. Los benchs de barritas 1080p low te da un disparate pornografico de diferencia entre cada uno. Agarra algun video que compare esos CPUs, en 1440p y 4k al mango (que es para lo que la gente gasta lo que salen), vas a ver que del 14900k al 10900k, la diferencia del AVG en 1440p es de 20+- frames, y en 4K 10+- frames, no entre si, sino de punta a punta, del 14900k al 10900k. De nuevo, que es para lo que se compran esos CPUs, para jugar en ultra en 1440p o 2K. Mismo concepto con AMD. Ahi las barritas generadas por 1080p low son un dato. Nada mas. No un veredicto. Ni un dato util siquiera. Si cuando vaya a usar el CPU no se refleja en nada de eso, es un dato anecdotico. Es como que me digas que un avion volando en el vacio va a 300km/h mas rapido que otro. Hay aire en la tierra. Es un dato anecdotico inaplicable.




    El tema de durar, no durar, es relativo, no es un tema de potencia exclusivamente. Yo hasta el 2021 estaba jugando con un Xeon LGA 1366. Un CPU del 2010. 6 cores, 12 threads. En potencia no tenia nada que envidiarle a un i5 de 6ta, y creo que de 7ma tampoco andaba muy detras. Pero no tenia AVX. No tenia SSE 4.2. Y algun que otro set mas. Ya con eso habia juegos que no andaban, o andaban como el orto. Asi que no, tampoco te dice nada la potencia bruta a 1080p. Porque divino lo que puede tirar este Ryzen, o el Core Ultra 9, y si en 2 años le meten mas chips de IA hasta el forro del ojete de un momento al otro, o sets de instrucciones nuevos, y estos CPU ya quedan viejos rapidisimos independientemente de su potencia
    Última edición por Master of the Wind; Hoy a las 06:37 PM
    // Desktop: Core i5 13600KF - 32GB DDR4@3600 Mhz (16 GB DDR4 Thermaltake Thoughram + 16 GB DDR4 TForce VulcanZ) - Asus Prime Z690-P D4 - EVGA RTX 3090 FTW3 Ultra 24GB GDDR6X - SSD M.2 Kingston 2TB x2 - SSD M.2 Kingston 1TB - Thermaltake GF1 850W - Cooler Master Masterliquid 240 - Antec AX81 - Asus Strix Soar - Windows 11 x64
    // Gear: Razer Blackwidow V3 Mini 65% Hyperspeed - Razer Deathadder V2 Pro - Red Dragon Suzaku XL - Sony Dual Sense + Xbox Series Controller + 8BitDo USB Receiver 2 - Razer Kraken
    // Display: Gigabyte M32U 32" 4K@144hz
    // Retro: Core i3 6100 3.7Ghz -16GB DDR4@2133 Mhz - 128 GB SSD - 1TB HDD - AMD Radeon R5 340X 2GB GDDR3 - 8 Bitdo SF30 Pro - Sony Wega Trinitron 36" CRT + VGA to Component transcoder - Batocera Linux
    // Work: Macbook Pro 15" 2019 - Core i9 2.3 Ghz - 16 GB DDR4 - 512 GB SSD - Intel UHD Graphcis 630/AMD Radeon Pro 560X 4GB GDDR5
    // Server ITX: Cooler Master NR200P - Gigabyte GA AB350N Gaming WIFI - AMD Ryzen 7 2700 - 32GB RAM DDR4 - 1TB NVME SSD
    // Console peasant: Sony PlayStation 5 Slim - Nintendo Switch 256GB MicroSD + RCMLoader -
    New Nintendo 3DS XL 128GB MicroSD - Xbox 360 Slim 120GB - Nintendo Wii 512GB MicroSD
    // Console no peasant: Steam Deck OLED - 1TB SSD - 1TB MicroSD

Información de tema

Usuarios viendo este tema

Actualmente hay 6 usuarios viendo este tema. (4 miembros y 2 visitantes)

  1. enrokike,
  2. Master of the Wind,
  3. uKER,
  4. Judai

Permisos de publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •