De volta à esteira de 18 meses (qualquer coisa de computador) artrite ajuda rimadyl

Você provavelmente já percebeu que não precisa mais atualizar seu computador com muita frequência. Atualizações nos dias de hoje ainda são legais e tudo, mas elas são apenas uma diferença de magnitude: taxas de quadros ligeiramente melhores, configurações gráficas ligeiramente superiores, mas nunca há nada inovador nisso. Um computador de cinco anos deve ser capaz de jogar qualquer novo jogo lançado hoje, e um bom computador de três anos ainda poderá jogar novos jogos nas configurações mais altas.

As coisas costumavam ser diferentes. Na década de 1990 e início de 2000, você precisava atualizar seu computador a cada dois anos – idealmente a cada 18 meses – e isso era uma diferença em termos de gênero. Naquela época, era esperado que um computador de dois anos lutasse para jogar um novo jogo.

Se você quisesse continuar jogando jogos novos e exigentes, precisaria comprar um novo hardware com frequência.

O que estamos vendo nas imagens acima é, creio eu, um retorno ao ciclo de atualização de 18 meses. Isso não vai acontecer hoje. Nem todas as peças estão lá ainda, mas estão chegando, e estão vindo muito mais rápido do que eu pensava. A primeira rodada de middleware foi mostrada na GDC 2008 e levará algum tempo para polir, e então talvez tenhamos dois ou três ciclos de lançamento de AAA antes que o powderkeg exploda.

Se você não estiver familiarizado com o threadripper: é uma CPU desktop / gaming de ponta, de nível entusiasta, com 8 a 32 núcleos, cada um com 2 threads de hardware (16 a 64 processadores lógicos em um único soquete). Os chips de Threadripper são geralmente mais lentos do que os processadores de contagem de núcleos mais baixos, trocando o desempenho de um único núcleo pelo ridículo processamento de instruções paralelas.

Para uma parte do consumidor, esse ‘alguém’ quase certamente será um desenvolvedor de jogos. E para uma parte inteira do SISD, esse ‘algo’ significa jogabilidade (como em mudanças revolucionárias para). Existem três áreas principais onde os jogos modernos estão mais ou menos nas idades da pedra: interatividade, mutabilidade do mundo e IA. Todos se prestam bem a pontos e muito abismalmente a gus, então meu palpite é que vamos ver mudanças revolucionárias em todas essas áreas. Este último passo ainda não aconteceu, mas quanto mais as guerras nucleares esquentam, mais provável é que isso aconteça.

Falando em guerras centrais, não é certo quando a Intel se tornará parte dessa discussão. Eles não chegam nem perto de competir contra a AMD no topo do espaço da HEDT, e mesmo onde eles têm chips de desempenho competitivo, as peças da Intel são várias vezes mais caras (ou uma fraude embaraçosa). Não tenho certeza do que eles estão pensando aqui – talvez seus rendimentos de HEDT sejam tão baixos que eles realmente não possam ser competitivos em termos de preço?

A boa notícia para a Intel é que eles estão trabalhando neste espaço há muito tempo: projetam larrabee e xeon phi. Se a troca de throughput / thread única for importante o suficiente, eles terão pelo menos algo que eles podem trazer para o mercado … Eventualmente. Muito parecido com a estratégia atual da HEDT, no entanto, a Intel deu uma olhada no mercado consumidor xeon phi para focar no mercado de servidores overpriced da cidade louca. Como de costume, eles provavelmente terão que fazer uma pausa demorada antes de mudar de rumo.

Mais importante: como o quadro RTX, ele terá raytracing acelerado por hardware – o suporte a gamepad da nvidia foi confirmado. O quadro RTX 8000 será capaz de 10 bilhões de raios de hardware por segundo, ou 60 FPS, full HD a 80 amostras por pixel. Isso faz com que o raytracing de hardware avance de alguma coisa barulhenta e barulhenta, ocasionalmente útil para consultas de oclusão, para algo que possa substituir os gráficos raster completamente. (para comparação, o GTX 1080 pode converter 100 a 125 milhões de raios por segundo.)

O suporte GPU para renderização foveated já está lá, ele só precisa de algumas telas de super alta resolução e da tecnologia de rastreamento de olho direito. As pessoas estão trabalhando nisso, mas elas ainda não existem. Se essa tecnologia de rastreamento ocular também pudesse informar sobre acomodação, então, juntamente com o raytracing de hardware, você teria algo tão bom quanto uma exibição de campo de luz – por uma fração do custo. E com renderização foveated reduzindo a qualidade de 99% da tela, você terá um orçamento de raio absurdo para gastar na fóvea.

A outra parte é a revolução na jogabilidade de alto número de núcleos. Jogos de RV morrem de inutilidade por interatividade – ambientes estáticos são quase dolorosos de se estar. Imagine ter o orçamento da CPU onde você poderia, por exemplo, pegar uma marreta e começar a derrubar o drywall. Ou, algum dia, ter o orçamento da CPU para começar a falar com um NPC e depois falar de volta. Louco, certo? Hoje é. Se o computador médio tivesse milhares de núcleos de CPU, talvez não.

E esse é o mundo que vejo vindo para o hardware de PC. Nos anos 90 e início dos anos 2000, nós atualizávamos para obter uma velocidade de clock mais rápida ou mais RAM. Então, por um pouquinho pequenininho lá no final da tarde, parecia que estávamos indo para a mesma coisa por conta do núcleo … Mas isso nunca aconteceu. Eu acho que finalmente vai acontecer. Acho que vamos ter jogos que devoram o poder do computador novamente, processadores competindo em contagens de núcleos que aumentam geometricamente e competindo em raios geometricamente crescentes por segundo. E a cada 18 meses, você terá que atualizar porque você não tem núcleos suficientes ou raios suficientes. (IMO)

Como é que o hardware gráfico está melhorando tão rapidamente ao mesmo tempo em que os processadores estão se esforçando para obter ganhos marginais de desempenho? O hardware gráfico não está sujeito às mesmas restrições físicas dos processadores? Eles estão sujeitos às mesmas restrições físicas, mas não aos mesmos lógicos. O desempenho é logicamente limitado por dependências de dados de leitura após gravação. Cargas de trabalho gráficas têm muito poucas dependências RAW e acontecem em tempos muito bem controlados. Os tipos de programas single-thread que você executa em sua CPU tendem a ter uma dependência RAW a cada 4 instruções ou mais, o que significa que mesmo o processador single core mais rápido terminará retirando 4 instruções por ciclo, mesmo que seja teoricamente projetado para lidar Mais. Para aumentar o desempenho além desse limite, você precisa reprojetar seus programas para ter menos dependências RAW. Isso basicamente é o mesmo que multithreading.

Edit: nos anos 90 e início dos anos 2000, a Intel e a HP colaboraram para projetar uma CPU que tentava ser paralela da mesma forma que uma GPU moderna. Esse chip foi chamado de itanium. O primeiro itanium poderia executar 6 instruções por ciclo, o que era bastante louco para a época (edição 2: últimas informações do cpus do 3, ryzen pode fazer 4). Mas os benefícios de desempenho nunca se materializaram. Não é possível transformar estaticamente um programa para reduzir ou eliminar as dependências RAW. Se pudéssemos, seríamos capazes de automaticamente multithread programas – nem sequer precisamos nos preocupar com superscalar fora de ordem, poderíamos, literalmente, apenas jogar núcleos em cada programa, como faz uma GPU.