Facebook está trabalhando no seu próprio chip de Inteligência Artificial - ILLUMINATI - A ELITE PERVERSA

sexta-feira, 22 de fevereiro de 2019

Facebook está trabalhando no seu próprio chip de Inteligência Artificial



Facebook está desenvolvendo seu próprio chip de Inteligência Artificial, indicou o pesquisador-chefe de IA da empresa, Yann LeCun. O objetivo é construir métodos mais eficientes de processamento de redes neurais através de hardware e melhorar o desempenho ​​e eficiência energética dos sistemas.

A declaração foi feita numa entrevista logo antes de LeCun dar uma palestra sobre o futuro do machine learning na Conferência Internacional de Circuitos Semicondutores, São Francisco. Não se sabe ainda exatamente no que o Facebook está trabalhando, mas a matéria da Bloomberg lembra que a Intel anunciou uma parceria com a empresa na última CES, em janeiro.

Yann LeCun disse que futuros chips serão usados para o treinamento de algoritmos de deep learning, e precisariam ser capazes de manipular dados sem ter que dividi-los em vários lotes, como fazem os processadores atuais. Em abril do ano passado, o Facebook contratou uma equipe de hardware para construir seus próprios chips para diversas aplicações, incluindo inteligência artificial, além de gerenciamento para as complexas cargas de trabalho dos grandes datacenters da empresa.Participe do nosso GRUPO CANALTECH DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Para o executivo do Facebook, os futuros designs de chip de Inteligência Artificial teriam que lidar com as informações de maneira mais eficiente. Os chips atualmente usados para treinamento de redes neurais são as unidades gráficas de processamento projetadas para renderizar imagens para videogames, como as feitas pela Nvidia. Para LeCun, as GPUs continuariam sendo importantes para a pesquisa em deep learning, mas esses chips são inadequados para a execução dos algoritmos de Inteligência Artificial.

Comparando com um cérebro humano, LeCun disse que ao aprender, a maioria dos neurônios não precisa ser ativada – diferente dos processadores atuais, na qual toda rede neural é ativada a cada etapa de um cálculo, mesmo que não sejam usados. “Isso torna o processo menos eficiente”, avalia.

Fonte: Bloomberg







"Deep Learning pode precisar de nova programação", diz chefe de IA do Facebook

A linguagem de programação Pythonpode estar com os dias contatos. Bem, pelo menos é o que pensa o diretor de pesquisas com inteligência artificial do Facebook, Yann LeCun. Para ele, o deep learning pode precisar de uma nova linguagem de programação que seja mais flexível e mais fácil de trabalhar, mesmo que muitos dos pesquisadores e engenheiros torçam o nariz para isso.

"Existem vários projetos na Google, no Facebook e em outros lugares para projetar uma linguagem tão compilada que pode ser eficiente para o deep learning das máquinas, mas não está claro se a comunidade seguirá, porque as pessoas só querem usar Python", disse LeCun em entrevista ao VentureBeat.

De acordo com o recente relatório Octoverse do GitHut, o Python é atualmente a linguagem mais popular usada por desenvolvedores que trabalham em projetos de aprendizado de máquina. A linguagem de programação também forma a base para as estruturas PyTorch do Facebook e TensorFlow da Google.

Recentemente, LeCun apresentou um documento explorando as últimas tendências e falou diante de empresas que fazem chips de próxima geração na International Solid-State Circuits Conference (Conferência Internacional de Circuitos em Estado Sólido) do IEEE(Instituto de Engenheiros Eletricistas e Eletrônicos), em São Francisco.

A primeira parte do artigo é dedicada às lições que LeCun tirou após sua passagem pelo Bell Labs, incluindo a observação de que as criações dos pesquisadores de IA e cientistas da computação tendem a estar vinculadas às ferramentas de hardware e software. Com mais de 50 anos de existência, a inteligência artificial tem seu crescimento atual diretamente ligado ao aumento da capacidade computacional fornecida por chips e outros hardwares.

Para LeCun, é um circulo virtuoso. Um melhor hardware traz algorítimos melhores, que potencializam o desempenho e fazem com que as pessoas costruam, por fim, máquinas e compostos ainda melhores.

No início dos anos 2000, depois de deixar o Bell Labs e ingressar na Universidade de Nova York, LeCun trabalhou com outros especialistas do setor, como Yoshua Bengio e Geoffrey Hinton, conduzindo pesquisas para ressuscitar o interesse em redes neutras e aumentar a popularidade do deep learning.

O chefe de IA do Facebook destacou uma série de tendências em IA que os fabricantes de hardware "deveriam" considerar nos próximos anos e fez recomendações sobre o "tipo de arquitetura necessária no futuro próximo", recomendando que o tamanho crescente dos sistemas de deep learning seja levado em consideração.

Ele acredita, também, que os futuros sistemas de deep learning serão, em grande parte, treinados com aprendizado autodescrito e que novos hardwares de alto desempenho serão necessários para dar suporte a esse aprendizado.

Fonte: VentureBeat

Nenhum comentário:

Postar um comentário

Postagem mais recente Postagem mais antiga Página inicial