Fóruns

Uso da GPU M1 prejudicando o pool de memória?

M

majestosa

Pôster original
15 de maio de 2012
  • 31 de janeiro de 2021
Oi,

Quanta memória RAM o M1 retira do pool de memória para executar a GPU?

Quero comprá-lo para produção musical e ficaria feliz com 16 shows, mas não tenho certeza de quanta memória a GPU está usando, especialmente com um monitor externo.

warp9

8 de junho de 2017
  • 31 de janeiro de 2021
Requer apenas alguns megabytes para executar um monitor, mas as GPUs também são usadas para aprendizado de máquina, matrizes de pixels e cálculos especializados. Realmente depende do software que você está usando.

Dê uma olhada nas preferências e veja se você consegue identificar as configurações da GPU. Por exemplo, o Photoshop pode fazer uso intenso de GPUs, mas também pode ser desativado.
Reações:blindado NO

Wizec

30 de junho de 2019


  • 31 de janeiro de 2021
Para jogos em 1080p em configurações de gráficos de alto a muito com AA ativado, você precisará de 4 GB a 6 GB de memória de vídeo

Quanta memória de vídeo (VRAM) você precisa para jogar em 2021?

Descubra quanta memória de vídeo (VRAM) você precisa em uma placa gráfica para jogos em diferentes resoluções e configurações gráficas para os jogos AAA mais recentes dos dias modernos. A memória de vídeo ou VRAM é uma DRAM (RAM dinâmica) de alta velocidade usada em placas gráficas discretas ou placas de vídeo. Esta é uma memória buffer, apenas ... graphicscardhub.com
se você não estiver jogando, então provavelmente apenas algumas centenas de MB, dependendo da resolução do seu monitor e profundidade de cor. Depois de chegar a 4K e milhões de cores, ele pode ficar muito mais alto, mesmo para tarefas como navegação na web:

O único problema potencial que encontramos foi durante os testes de navegação na web de 4k, em que nosso registro mostrou as placas de vídeo usando até 1.260 MB de memória de vídeo. Para colocar isso em perspectiva, isso é cerca de 3 vezes mais memória de vídeo que teria sido usada se realizássemos as mesmas tarefas em um monitor 1080p.

Requisitos e uso do monitor 4K

As telas 4k têm aproximadamente quatro vezes o número de pixels de uma tela 1080p padrão, o que resulta em uma grande melhoria na qualidade da imagem. Mas como a tecnologia ainda é relativamente nova, existem muitas perguntas e mal-entendidos sobre o que você precisa para operar um monitor 4k. Em ordem de... www.pugetsystems.com Última edição: 31 de janeiro de 2021
Reações:Tagbert A

leman

14 de outubro de 2008
  • 1 de fevereiro de 2021
majormike disse: Olá,

Quanta memória RAM o M1 retira do pool de memória para executar a GPU?

Quero comprá-lo para produção musical e ficaria feliz com 16 shows, mas não tenho certeza de quanta memória a GPU está usando, especialmente com um monitor externo.

Eu não me preocuparia com isso. Todos os sistemas reservam alguma memória para lidar com funções básicas, M1 não é muito diferente das máquinas Intel neste aspecto. A GPU não canibaliza sua RAM. Sem mencionar que seu software de produção musical provavelmente usa a GPU para fazer o processamento. M

Modernape

21 de junho de 2010
  • 1 de fevereiro de 2021
A GPU M1 não tem RAM alocada como as máquinas Intel, onde a GPU teria talvez 1,5 GB reservado que a CPU não poderia usar. Se você não estiver usando a GPU com tanta força, terá a maior parte da RAM disponível para a CPU.
Reações:mds1256 e LeeW A

leman

14 de outubro de 2008
  • 1 de fevereiro de 2021
Modernape disse: O GPU M1 não tem RAM alocada como as máquinas Intel, onde o GPU teria talvez 1,5 GB reservado que o CPU não poderia usar. Se você não estiver usando a GPU com tanta força, terá a maior parte da RAM disponível para a CPU.

Como você sabe disso? M

Modernape

21 de junho de 2010
  • 1 de fevereiro de 2021
leman disse: Como você sabe disso?
arquitetura de memória unificada m1 soc - Pesquisa do Google
Reações:mds1256, chabig e consumite A

leman

14 de outubro de 2008
  • 1 de fevereiro de 2021
Modernape disse: arquitetura de memória unificada m1 soc - Pesquisa do Google

Como isso deve apoiar a afirmação que você está fazendo? O que estou perguntando é - você tem alguma evidência factual ou uma referência a uma fonte apresentando tal evidência factual de que a alocação de memória da GPU funciona de maneira diferente nas GPUs Intel e Apple? Ambos usam arquitetura de memória unificada com cache de último nível compartilhado entre CPU e GPU. M1 definitivamente reserva alguma memória para uso de GPU, embora eu não tenha certeza de quanto. M

Modernape

21 de junho de 2010
  • 1 de fevereiro de 2021
leman disse: Como isso pode apoiar a afirmação que você está fazendo? O que estou perguntando é - você tem alguma evidência factual ou uma referência a uma fonte apresentando tal evidência factual de que a alocação de memória da GPU funciona de maneira diferente nas GPUs Intel e Apple? Ambos usam arquitetura de memória unificada com cache de último nível compartilhado entre CPU e GPU. M1 definitivamente reserva alguma memória para uso de GPU, embora eu não tenha certeza de quanto.
Uau, você deve ter lido esses artigos rapidamente. Oh espere. Você não os leu, não é?
Reações:mds1256, jerryk e chabig A

leman

14 de outubro de 2008
  • 1 de fevereiro de 2021
Modernape disse: Uau, você deve ter lido esses artigos rapidamente. Oh espere. Você não os leu, não é?

Tenho certeza de que li os mais relevantes deles. Também tenho feito análises técnicas e benchmarking de baixo nível da GPU M1 desde que comprei minha unidade em dezembro. Esse é também o motivo pelo qual estou perguntando, talvez haja alguma informação técnica nova que eu ainda não conheço. C

Chabig

6 de setembro de 2002
  • 1 de fevereiro de 2021
Sua pergunta é impossível de responder. É como perguntar quanta memória o TextEdit usa. Tudo depende do que você está fazendo. A CPU e a GPU compartilham a RAM de acordo com suas necessidades, que mudam de momento a momento.

Aqui está uma referência da Apple:

Explore a nova arquitetura de sistema dos Macs de silicone da Apple - WWDC20 - Vídeos - Desenvolvedor Apple

Descubra como os Macs com silício da Apple proporcionarão vantagens modernas usando a arquitetura System-on-Chip (SoC) da Apple. Aproveitando um unificado ... developer.apple.com
Citar,
Construir tudo em um único chip dá ao sistema uma arquitetura de memória unificada.

Isso significa que a GPU e a CPU estão trabalhando na mesma memória. Recursos gráficos, como texturas, imagens e dados geométricos, podem ser compartilhados entre a CPU e a GPU de forma eficiente, sem sobrecarga, pois não há necessidade de copiar dados em um barramento PCIe.

Krevnik

8 de setembro de 2003
  • 1 de fevereiro de 2021
leman disse: Tenho certeza de que li os mais relevantes deles. Também tenho feito análises técnicas e benchmarking de baixo nível da GPU M1 desde que comprei minha unidade em dezembro. Esse é também o motivo pelo qual estou perguntando, talvez haja alguma informação técnica nova que eu ainda não conheço.

Os chips de desktop e laptop da Intel não usam UMA, eles usam memória compartilhada. Na Intel, é necessário alocar à GPU um pedaço particionado de RAM para ser usado. A CPU não pode acessar a partição alocada à GPU e vice-versa. Portanto, você ainda precisa copiar dados entre as partições.

Toda a diferença entre memória unificada e memória compartilhada é a falta de particionamento. A GPU e a CPU podem acessar o mesmo bloco de memória. Comparado com a Intel, oferece dois benefícios específicos:

1. Sem ter que pré-alocar RAM para ser usada como memória de vídeo, você não precisa lidar com limites específicos para a memória de vídeo (os 1,5 GB mencionados anteriormente) e pode equilibrar mais facilmente entre a demanda de CPU e GPU.
2. Não precisar copiar buffers significa alguma economia de RAM mensurável, menos pressão na largura de banda da memória e um pouco de aumento de latência.

Esses benefícios são a razão pela qual os consoles de jogos usam UMA. A economia de memória e latência ajuda a manter os custos baixos no GDDR de que eles precisam.
Reações:blindado e jdb8167 A

leman

14 de outubro de 2008
  • 1 de fevereiro de 2021
Krevnik disse: Os chips de desktop e laptop da Intel não usam UMA, eles usam memória compartilhada. Na Intel, é necessário alocar à GPU um pedaço particionado de RAM para ser usado. A CPU não pode acessar a partição alocada à GPU e vice-versa. Portanto, você ainda precisa copiar dados entre as partições.

A documentação da Intel discorda de você.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Até onde eu recarreguei, a Intel tem usado memória unificada desde pelo menos Sandy Bridge, talvez antes. Pode haver algumas restrições, não 100% de certeza. Última edição: 1º de fevereiro de 2021
Reações:AAPLGeek T

a bagagem

29 de julho de 2011
  • 1 de fevereiro de 2021
majormike disse: Eu quero obtê-lo para produção musical e ficaria feliz com 16 shows, mas não tenho certeza de quanta memória a GPU está usando, especialmente com um monitor externo?
A menos que alguém faça um relatório com leituras de pressão de memória de uma máquina M1 de 16 GB executando algo próximo à sua carga de trabalho pretendida - ninguém sabe. 'Produção musical' é um pedaço de corda para começar (o uso de RAM depende inteiramente de quais tipos de instrumentos virtuais e plug-ins você está usando). Alguns aplicativos de música têm interfaces de usuário bastante elaboradas e a execução de alguns monitores de alta resolução exigirá mais RAM alocada para o vídeo - especialmente se você estiver usando modos escalonados onde tudo é renderizado em um buffer interno e depois reduzido.

As probabilidades são de que um M1 não apenas fará o seu trabalho, mas o fará mais rápido porque é totalmente mais eficiente e o que você perde nas rotatórias, ganha nas oscilações - e tem havido muitas demos no Youtube mostrando-o rodando um shedload de faixas e instrumentos do Logic Pro.

No entanto, a suposição segura é que se o seu fluxo de trabalho realmente precisasse de mais de 16 GB na Intel, então, pelo menos beneficiar de mais de 16 GB no Apple Silicon e seria melhor esperar pelo lançamento dos sistemas Apple Silicon de última geração. Mesmo se um M1 pode Atualmente superar um Intel iMac topo de linha ou 16 'MBP, em seis meses ele será chutado em sua cara - este hiato estranho onde os Macs básicos aparentemente superam os mais caros não vai durar grande - A Apple não pode permitir que continue ou vai atingir as vendas de Mac de ponta.

Dito isso, você precisa ter certeza de que realmente faz precisa de toda a memória RAM do seu Intel Mac em primeiro lugar (veja Memory Pressure).

Em termos de RAM de vídeo, é quase certo que o M1 será melhor do que um MacBook ou Mini com placa de vídeo integrada Intel. Vs. um iMac que tem uma GPU discreta com 8GB + de VRAM, é mais difícil dizer.

(Além disso, você precisa verificar cuidadosamente se todos os plug-ins, drivers etc, que você precisa são compatíveis com Big Sur ainda, quanto mais M1 ...)

Modernape disse: Uau, você deve ter lido esses artigos rapidamente. Oh espere. Você não os leu, não é?

Dizer a alguém para efetivamente 'mudar para o Google' não é particularmente útil quando a Internet está repleta de informações falsas e especulações infundadas. Tudo que eu vi da Apple tem sido extremamente vago, mais marketing do que informação técnica, e resumido a 'A memória unificada é mais rápida porque os dados não precisam ser copiados entre dispositivos', o que não diz nada sobre como a RAM é alocada. Tudo o que você obtém com uma pesquisa no Google são muitos sites de tecnologia especulando sobre os mesmos dados limitados da Apple. A possibilidade de que o VRAM equivalente seria alocado 'on demand' é uma especulação muito plausível - mas a menos que alguém possa apontar para o Documento da Apple que detalha isso, é especulação.

A realidade parece ser a Memória Unificada é mais eficiente - mas Como as mais eficiente é difícil de testar e difícil de isolar dos outros ganhos de desempenho do M1 (... o que pode parecer muito menos impressionante quando aparecem os Apple Silicon Macs de última geração).

Muitas das coisas do YouTube parecem vir de pessoas que não entendem a diferença entre 'Memória usada' e 'Pressão de memória' ou 'Troca usada' e troca avaliar - ou está procurando uma aceleração relacionada à RAM em fluxos de trabalho que não sobrecarregam a RAM em um sistema Intel ...
Reações:blindado e mszilard

mi7chy

24 de outubro de 2014
  • 1 de fevereiro de 2021
Krevnik disse: Toda a diferença entre memória unificada e memória compartilhada é a falta de particionamento. A GPU e a CPU podem acessar o mesmo bloco de memória. Comparado com a Intel, oferece dois benefícios específicos:

1. Sem ter que pré-alocar RAM para ser usada como memória de vídeo, você não precisa lidar com limites específicos para a memória de vídeo (os 1,5 GB mencionados anteriormente) e pode equilibrar mais facilmente entre a demanda de CPU e GPU.
2. Não precisar copiar buffers significa alguma economia de RAM mensurável, menos pressão na largura de banda da memória e um pouco de aumento de latência.

A Intel diz o contrário com alocação dinâmica e buffer de cópia zero. Minha lista de ignorados de BS está ficando maior.

https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html

https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Última edição: 1º de fevereiro de 2021
Reações:AlumaMac, leman e AAPLGeek

thedocbwarren

10 de novembro de 2017
São Francisco, CA
  • 1 de fevereiro de 2021
Acho que isso poderia ajudar: https://developer.apple.com/videos/play/wwdc2020/10632/

Isso explica o método de renderização comum com GPUs móveis, consoles e de baixo consumo de energia. É por isso que você precisa de menos memória do que dGPUs. A renderização de blocos tem sido uma maneira de lidar com 3D em blocos menores e verificar alterações, etc. Isso é feito há anos no console, bem como em tablets mais novos (iPad).

Dado isso, não é preciso cortar a quantidade de memória que você usa para texturas e rednering. É diferente de como os dGPUs funcionam com framebuffers.

a bagagem disse: A menos que alguém faça um relatório com leituras de pressão de memória de uma máquina M1 de 16GB executando algo próximo à sua carga de trabalho pretendida - ninguém sabe. 'Produção musical' é um pedaço de corda para começar (o uso de RAM depende inteiramente de quais tipos de instrumentos virtuais e plug-ins você está usando). Alguns aplicativos de música têm interfaces de usuário bastante elaboradas e a execução de alguns monitores de alta resolução exigirá mais RAM alocada para o vídeo - especialmente se você estiver usando modos escalonados onde tudo é renderizado em um buffer interno e depois reduzido.

As probabilidades são de que um M1 não apenas fará o seu trabalho, mas o fará mais rápido porque é totalmente mais eficiente e o que você perde nas rotatórias, ganha nas oscilações - e tem havido muitas demos no Youtube mostrando-o rodando um shedload de faixas e instrumentos do Logic Pro.

No entanto, a suposição segura é que se o seu fluxo de trabalho realmente precisasse de mais de 16 GB na Intel, então, pelo menos beneficiar de mais de 16 GB no Apple Silicon e seria melhor esperar pelo lançamento dos sistemas Apple Silicon de última geração. Mesmo se um M1 pode Atualmente superar um Intel iMac topo de linha ou 16 'MBP, em seis meses ele será chutado em sua cara - este hiato estranho onde os Macs básicos aparentemente superam os mais caros não vai durar grande - A Apple não pode permitir que continue ou vai atingir as vendas de Mac de ponta.

Dito isso, você precisa ter certeza de que realmente faz precisa de toda a memória RAM do seu Intel Mac em primeiro lugar (veja Memory Pressure).

Em termos de RAM de vídeo, é quase certo que o M1 será melhor do que um MacBook ou Mini com placa de vídeo integrada Intel. Vs. um iMac que tem uma GPU discreta com 8GB + de VRAM, é mais difícil dizer.

(Além disso, você precisa verificar cuidadosamente se todos os plug-ins, drivers etc, que você precisa são compatíveis com Big Sur ainda, quanto mais M1 ...)



Dizer a alguém para efetivamente 'mudar para o Google' não é particularmente útil quando a Internet está repleta de informações falsas e especulações infundadas. Tudo que eu vi da Apple tem sido extremamente vago, mais marketing do que informação técnica, e resumido a 'A memória unificada é mais rápida porque os dados não precisam ser copiados entre dispositivos', o que não diz nada sobre como a RAM é alocada. Tudo o que você obtém com uma pesquisa no Google são muitos sites de tecnologia especulando sobre os mesmos dados limitados da Apple. A possibilidade de que o VRAM equivalente seria alocado 'on demand' é uma especulação muito plausível - mas a menos que alguém possa apontar para o Documento da Apple que detalha isso, é especulação.

A realidade parece ser a Memória Unificada é mais eficiente - mas Como as mais eficiente é difícil de testar e difícil de isolar dos outros ganhos de desempenho do M1 (... o que pode parecer muito menos impressionante quando aparecem os Apple Silicon Macs de última geração).

Muitas das coisas do YouTube parecem vir de pessoas que não entendem a diferença entre 'Memória usada' e 'Pressão de memória' ou 'Troca usada' e troca avaliar - ou está procurando uma aceleração relacionada à RAM em fluxos de trabalho que não sobrecarregam a RAM em um sistema Intel ...

dmccloud

7 de setembro de 2009
Anchorage, AK
  • 1 de fevereiro de 2021
leman disse: Como isso pode apoiar a afirmação que você está fazendo? O que estou perguntando é - você tem alguma evidência factual ou uma referência a uma fonte apresentando tal evidência factual de que a alocação de memória da GPU funciona de maneira diferente nas GPUs Intel e Apple? Ambos usam arquitetura de memória unificada com cache de último nível compartilhado entre CPU e GPU. M1 definitivamente reserva alguma memória para uso de GPU, embora eu não tenha certeza de quanto.

O x86 NÃO usa memória unificada para a RAM do sistema. UMA refere-se à configuração da RAM no sistema, não ao cache da CPU. Com a plataforma x86, o sistema particiona a RAM em uma seção de CPU e iGPU. Para o iGPU, o sistema geralmente aloca cerca de 2 GB para operações de GPU, o que significa que apenas 6 GB estão disponíveis para a CPU. Para operações em que os dados precisam ser manipulados pela CPU e iGPU, eles são copiados duas vezes no barramento do sistema para a RAM (uma vez por partição), então o sistema precisa reconciliar os dois conjuntos de dados passados ​​de volta da RAM, que adiciona tempo de processamento adicional. Com a configuração UMA que o M1 usa, a CPU e o iGPU podem acessar a RAM completa do sistema simultaneamente (ou seja, não há particionamento da RAM entre a CPU e a GPU). Isso significa que os dados são copiados para a RAM apenas uma vez, e desde sempre as operações podem acontecer simultaneamente, não há sobrecarga associada à reconciliação de duas versões dos mesmos dados, uma vez passados ​​de volta para a CPU da RAM.
Reações:blindado e chabig

dmccloud

7 de setembro de 2009
Anchorage, AK
  • 1 de fevereiro de 2021
leman disse: A documentação da Intel discorda de você.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Até onde eu recarreguei, a Intel tem usado memória unificada desde pelo menos Sandy Bridge, talvez antes. Pode haver algumas restrições, não 100% de certeza.

Uma coisa que você precisa entender é que o uso do termo 'UMA' pela Intel é enganoso. Para os propósitos da Intel, eles apenas renomearam Intel HD para UMA, mas não fizeram alterações na arquitetura subjacente. Por outro lado, a abordagem da Apple é essencialmente o que a AMD vem tentando fazer há anos com o desenvolvimento de sua tecnologia Infinity Fabric para CPUs da série Ryzen. Aqui está uma explicação relativamente simplificada de por que a abordagem da Apple não é a mesma da Intel:

A memória do processador M1 é um único pool que pode ser acessado por qualquer parte do processador. Se o sistema precisar de mais memória para gráficos, ele pode alocá-la. Se precisar de mais memória para o Motor Neural, da mesma forma. Melhor ainda, porque todos os aspectos do processador podem acessar toda a memória do sistema, não há impacto no desempenho quando os núcleos gráficos precisam acessar algo que estava sendo anteriormente acessado por um núcleo do processador. Em outros sistemas, os dados precisam ser copiados de uma parte da memória para outra - mas no M1, é acessível instantaneamente.

Mesmo a menção de 'alocação' acima é enganosa e um artefato da plataforma x86. Como o UMA da Apple não divide a RAM entre a GPU e a CPU, não há alocação real de RAM entre a CPU e a GPU.

Com M1 Macs, a memória não é o que costumava ser

A Apple mudou a forma como a RAM é usada em um computador. E é hora de mudar nosso pensamento.
Reações:blindado, chabig e mds1256

Krevnik

8 de setembro de 2003
  • 1 de fevereiro de 2021
dmccloud disse: Uma coisa que você precisa entender é que o uso do termo 'UMA' pela Intel é enganoso. Para os propósitos da Intel, eles apenas renomearam Intel HD para UMA, mas não fizeram alterações na arquitetura subjacente.

Serei honesto, leman e mi7chy (apesar da atitude impetuosa) apontam para boas fontes que a Intel pelo menos suporta cópia zero e dimensionamento de partição dinâmica.

Mesmo que não seja UMA verdadeira como você afirma, parece que, pelos documentos que li até agora, é pelo menos capaz de dedicar páginas de memória para serem usadas para cópia zero, o que eu espero que faça alguns truques interessantes para fazer o mesma página RAM disponível para ambos os lados.

A pergunta que tenho e espero que os documentos respondam assim que eu tiver mais tempo é como essas páginas são tratadas com mais detalhes e que tipo de integração o sistema operacional precisa fazer para tirar o melhor proveito disso. Mas mesmo com essa resposta, se as APIs do sistema operacional precisam sinalizar para a GPU como gerenciar as páginas, quanta otimização a Apple fez lá?

leman disse: A documentação da Intel discorda de você.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Até onde eu recarreguei, a Intel tem usado memória unificada desde pelo menos Sandy Bridge, talvez antes. Pode haver algumas restrições, não 100% de certeza.

Bem, meu entendimento da arquitetura de GPU da Intel está provado que está desatualizado. Na verdade, não deve haver grandes diferenças nesse caso.

Meu entendimento era que ainda havia algum particionamento fixo em andamento, mas parece que o Google está trazendo artigos antigos sobre isso, o que me levou ao caminho errado.

thedocbwarren disse: Acho que isso pode ajudar: https://developer.apple.com/videos/play/wwdc2020/10632/

Isso explica o método de renderização comum com GPUs móveis, consoles e de baixo consumo de energia. É por isso que você precisa de menos memória do que dGPUs. A renderização de blocos tem sido uma maneira de lidar com 3D em blocos menores e verificar alterações, etc. Isso é feito há anos no console, bem como em tablets mais novos (iPad).

Dado isso, não é preciso cortar a quantidade de memória que você usa para texturas e rednering. É diferente de como os dGPUs funcionam com framebuffers.

Meu entendimento depois de refinar o vídeo (já se passaram alguns meses desde a última vez que o assisti) é que isso não afeta necessariamente a quantidade de memória de vídeo necessária, mas sim a pressão colocada na largura de banda da memória.

Ainda preciso de X MB para uma textura de um determinado tamanho e de X MB para o buffer de quadros em qualquer um dos designs. No entanto, o TBDR reduz a frequência com que você precisa acessar a (V) RAM, especialmente em situações em que você precisa fazer várias passagens. Ele * pode * reduzir um pouco os buffers intermediários, mas assume que os buffers intermediários são uma contribuição notável em comparação com os outros buffers em uso. Meu entendimento era que o próprio buffer traseiro era usado como o buffer intermediário, então estou um pouco cético de que haja grandes ganhos aí. Desenhar na textura parece ser comum hoje em dia, então pode haver mais do que eu esperava, assumindo que esses cenários podem ser todos feitos no nível do ladrilho, ao invés de uma textura. Última edição: 1º de fevereiro de 2021

dmccloud

7 de setembro de 2009
Anchorage, AK
  • 1 de fevereiro de 2021
A Intel ainda particiona a CPU e GPU RAM, então você tem que copiar os dados do lado da CPU para o lado da GPU e vice-versa (a seção em negrito é a abordagem da Apple, a seção em itálico é a da Intel):

Vamos examinar o último ponto, a memória on-chip. Com o M1, isso também faz parte do SoC. A memória no M1 é o que é descrito como uma 'arquitetura de memória unificada' (UMA) que permite que a CPU, GPU e outros núcleos troquem informações entre si, e com memória unificada, a CPU e a GPU podem acessar a memória simultaneamente, em vez de copiar dados entre uma área e outra . Erik continua ...

Por muito tempo, os sistemas de computador de baixo custo tiveram a CPU e a GPU integradas no mesmo chip (mesmo molde de silício). No passado, dizer 'gráficos integrados' era essencialmente o mesmo que dizer 'gráficos lentos'. Eles eram lentos por vários motivos:
Áreas separadas desta memória foram reservadas para a CPU e GPU. Se a CPU tivesse um pedaço de dados que queria que a GPU usasse, não poderia dizer aqui que tenho um pouco da minha memória. Não, a CPU teve que copiar explicitamente todo o pedaço de dados sobre a área de memória controlada pela GPU.


A parte relativa aos 'sistemas de computador de orçamento' é o que a Intel usa até hoje para gráficos integrados. Isso não mudou, independentemente de como a Intel chama sua arquitetura.


Por que o chip Apple M1 é tão rápido - explica um desenvolvedor | Especialista em produção

Você deve estar se perguntando por que o Chip M1 da Apple é tão rápido? Neste artigo, aprendemos com um desenvolvedor sobre o que torna, mesmo esses Macs básicos, tão rápidos. www.pro-tools-expert.com
Johnny Srouji abordou isso diretamente durante a WWDC:

'acessar os mesmos dados sem copiá-los entre vários pools de memória'

M1 da Apple: uma análise mais detalhada do chip dentro dos Macs mais recentes

No evento da Apple apelidado de 'One More Thing', a empresa ofereceu aos espectadores um tour virtual do chip M1 e seus 16 bilhões de transistores. www.techrepublic.com
Reações:chabig e thedocbwarren

thedocbwarren

10 de novembro de 2017
São Francisco, CA
  • 1 de fevereiro de 2021
Com certeza desatualizado. Estou ainda mais horrorizado com o fato de que agora eles vão vender (para OEMs) versões discretas do Iris Xe. Cada vez mais se difundindo da arquitetura. Uma bagunça.
Krevnik disse: Serei honesto, leman e mi7chy (apesar da atitude ousada) apontam para boas fontes que a Intel pelo menos suporta cópia zero e dimensionamento de partição dinâmica.

Mesmo que não seja UMA verdadeira como você afirma, parece que, pelos documentos que li até agora, é pelo menos capaz de dedicar páginas de memória para serem usadas para cópia zero, o que eu espero que faça alguns truques interessantes para fazer o mesma página RAM disponível para ambos os lados.

A pergunta que tenho e espero que os documentos respondam assim que eu tiver mais tempo é como essas páginas são tratadas com mais detalhes e que tipo de integração o sistema operacional precisa fazer para tirar o melhor proveito disso. Mas mesmo com essa resposta, se as APIs do sistema operacional precisam sinalizar para a GPU como gerenciar as páginas, quanta otimização a Apple fez lá?



Bem, meu entendimento da arquitetura de GPU da Intel está provado que está desatualizado. Na verdade, não deve haver grandes diferenças nesse caso.

Meu entendimento era que ainda havia algum particionamento fixo em andamento, mas parece que o Google está trazendo artigos antigos sobre isso, o que me levou ao caminho errado.



Meu entendimento depois de refinar o vídeo (já se passaram alguns meses desde a última vez que o assisti) é que isso não afeta necessariamente a quantidade de memória de vídeo necessária, mas sim a pressão colocada na largura de banda da memória.

Ainda preciso de X MB para uma textura de um determinado tamanho e de X MB para o buffer de quadros em qualquer um dos designs. No entanto, o TBDR reduz a frequência com que você precisa acessar a (V) RAM, especialmente em situações em que você precisa fazer várias passagens. Ele * pode * reduzir um pouco os buffers intermediários, mas assume que os buffers intermediários são uma contribuição notável em comparação com os outros buffers em uso. Meu entendimento era que o próprio buffer traseiro era usado como o buffer intermediário, então estou um pouco cético de que haja grandes ganhos aí. Desenhar na textura parece ser comum hoje em dia, então pode haver mais do que eu esperava, assumindo que esses cenários podem ser todos feitos no nível do ladrilho, ao invés de uma textura.

dmccloud

7 de setembro de 2009
Anchorage, AK
  • 1 de fevereiro de 2021
thedocbwarren disse: Com certeza desatualizado. Estou ainda mais horrorizado com o fato de que agora eles vão vender (para OEMs) versões discretas do Iris Xe. Cada vez mais se difundindo da arquitetura. Uma bagunça.


O Iris Xe nada mais é do que um Intel UHD iGPU rebatizado (que foi rebatizado de Intel HD). É como se eles estivessem tentando apresentar um Chevelle como um carro novo apenas repintando o exterior ...

thedocbwarren

10 de novembro de 2017
São Francisco, CA
  • 1 de fevereiro de 2021
dmccloud disse: O Iris Xe nada mais é do que um Intel UHD iGPU rebatizado (que foi rebatizado de Intel HD). É como se eles estivessem tentando apresentar um Chevelle como um carro novo apenas repintando o exterior ...
É verdade que não consigo acreditar que eles também estão fazendo cartas discretas dessas para a 11ª Geração.

robco74

22 de novembro de 2020
  • 1 de fevereiro de 2021
Se você faz qualquer tipo de criação musical, a RAM deve estar em posição inferior em sua lista de preocupações ao considerar os novos Macs M1. Big Sur fez grandes mudanças no driver. Verifique primeiro com todos os fabricantes de seus equipamentos se eles suportam Big Sur e Apple Silicon. Nem todos o fazem ainda.
Reações:duervo Q

quarkysg

12 de outubro de 2019
  • 1 de fevereiro de 2021
leman disse: A documentação da Intel discorda de você.

https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
Parece descrever apenas o Gen 11 iGPU? Também se aplica a iGPUs de gerações anteriores?