No universo revolucionário da inteligência artificial (IA), o desafio é processar cada vez mais informações simultaneamente. As maiores empresas de tecnologia estão investindo pesadamente neste desafio. Na corrida pela inovação, um novo componente ganha destaque: a unidade de processamento neural (NPU).
NPUs são chips especializados projetados para acelerar tarefas relacionadas à IA, especialmente em áreas como aprendizado de máquina e redes neurais artificiais.
Atualmente, a maior parte do processamento de inteligência artificial é realizada na nuvem, em grandes servidores de empresas especializadas. Isso ocorre porque a IA requer uma quantidade significativa de poder computacional para treinar e executar modelos que são executados em chips chamados GPUs (unidade de processamento gráfico).
Na tentativa de combater o domínio do mercado de chips gráficos, diversas empresas, incluindo Microsoft, AMD e Qualcomm, apostam em NPUs. Essa tecnologia tem foco específico em calcular apenas inteligência artificial, diferentemente das placas gráficas, que realizam outras funções, como projetar uma imagem na tela do computador — e consomem mais energia.
A principal inovação, anunciada recentemente, é produzir notebooks ultrafinos, capazes de processar redes neurais artificiais de forma nativa. As NPUs ocupam menos espaço e consomem menos energia, por isso são valorizadas. Porém, o poder de realizar esses cálculos paralelos é medido em TOPS (Tera Operations per Second), esses computadores ultrafinos foram anunciados com o selo Copilot Plus, pela Microsoft, empresa responsável pelo Windows, que é o Sistema Operacional com cerca de 74% dos usuários de PC, segundo o site especializado Statcounter, e terão pelo menos 40 TOPS (Trilhões de Operações por Segundo), enquanto uma placa de vídeo para uso pessoal pode atingir até 1.300 TOPS.
Devido ao grande poder de núcleos especializados como os da Nvidia, que domina o mercado de GPUs em IA, um grande número de empresas trabalha com redes neurais em supercomputadores que trabalham com demandas de inteligência artificial de todo o mundo a partir do sistema em nuvem. Nessa situação, quem utiliza o sistema envia um comando que será enviado via internet para esses grandes servidores, que irão calcular e enviar o resultado de volta, porém, há um atraso que depende de fatores de internet e conexão, processamento local de Os processos de IA podem acabar acelerando o resultado.
Mudança digital
As NPUs têm o potencial de impulsionar grandes mudanças na vida digital cotidiana. Processam uma grande quantidade de dados em paralelo, realizando triliões de ações paralelas por segundo, explica Euclides Lourenço Chuma, professor e investigador do Instituto de Engenheiros Elétricos e Eletrónicos (IEEE). “No entanto, as NPUs têm uso restrito em IA, pois muitas operações não funcionam em paralelo”, destaca.
O professor explica ainda que as NPUs terão “aplicações profissionais úteis”, como trabalhos de escritório e questões mais funcionais e simples e que para que este processador caiba num computador ultrafino, deve ser integrado em placas-mãe, tal como as GPUs simples, que têm como foco apenas a geração da imagem da tela. Portanto, “eles não são muito customizáveis” e devem ser bem escolhidos, pois não há como fazer uma melhoria sem alterar todo o sistema.
“As NPUs oferecem uma melhor relação custo-benefício-energia para aplicações de IA. As GPUs são mais versáteis, porém tendem a ter uma relação custo-benefício-energia pior do que as NPUs para aplicações de IA”, afirma o professor. Portanto, os computadores portáteis que funcionam com baterias seriam beneficiados em termos de tempo desconectados.
Em comunicado recente, a Nvidia, líder mundial em tecnologia de processamento gráfico, argumentou que suas GPUs RTX são superiores às Unidades de Processamento Neural para processamento de inteligência artificial.
Segundo a Nvidia, a empresa domina todo o segmento de PC AI, “já que a RTX 4070 (placa intermediária da fabricante) é suficiente para vencer a Radeon (placa de vídeo mais rápida da concorrente AMD” em tarefas que envolvem processamento para inteligência artificial. Por último ano, a Nvidia vendeu 3,76 milhões de GPUs para servidores, o que representa 98% de todo o mercado. No mesmo período, a empresa registrou lucro de US$ 12,2 bilhões, valor 779% superior ao valor de 2022. dizendo que suas GPUs também podem oferecer bons resultados em diversas áreas, como qualidade de vídeo, remoção de ruído de fundo, IA generativa e edição de imagens e vídeos.
*Estagiário sob supervisão de Carlos Alexandre de Souza
Você gostou do artigo? Escolha como acompanhar as principais notícias do Correio:
Dê sua opinião! O Correio tem espaço na edição impressa para publicar a opinião dos leitores através do e-mail sredat.df@dabr.com.br
ra soluções financeiras
blue cartao
empresa de crédito consignado
download picpay
brx br
whatsapp bleu
cartão consignado pan como funciona
simulador crédito consignado
como funciona o cartão consignado pan
ajuda picpay.com