Ir direto para menu de acessibilidade.
Início do conteúdo da página
Últimas notícias

Vice e pesquisador do CBPF discutem IA

  • Publicado: Terça, 30 de Junho de 2020, 15h41
  • Última atualização em Terça, 30 de Junho de 2020, 16h34
  • Acessos: 808

A convite do Núcleo de Comunicação Social, o tecnologista sênior Márcio Portes de Albuquerque e o físico Clécio De Bom – respectivamente, vice-diretor e pesquisador do Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio de Janeiro (RJ) – apresentam para o grande público a inteligência artificial, tanto como área de pesquisa autônoma quanto ferramenta promissora para o avanço da pesquisa científica e tecnológica. São também relatadas as atividades nesse campo no CBPF.

 

IA: P&D de uma ferramenta avançada para a ciência

A pesquisa em inteligência artificial (IA) tem mexido com o mundo moderno. Os avanços já são perceptíveis: sistemas de processamento de linguagem natural e de tradução online; reconhecimento de padrões em imagens complexas; produções de pinturas e músicas por meio de algoritmos baseados em redes neurais artificiais; sistemas de direção em carros autônomos...

Como é comum na pesquisa em ciência e tecnologia, os termos e acrônimos técnicos complicam o entendimento dos feitos da IA, tornando-a confusa e causando dúvidas – por vezes, receio – sobre o que está por vir nessa área.

Para os profissionais, a definição mais tradicional de IA é a seguinte: a área em que máquinas ou computadores imitam funções cognitivas de humanos, como aprendizado ou capacidade de resolver problemas.

Apesar de a IA ser uma grande área de pesquisa – basicamente, sobre como fazer máquinas aprenderem e tomarem decisão –, o bloco mais fundamental dos algoritmos de inteligência artificial é o ‘neurônio artificial’, cuja inspiração é o neurônio biológico. Os algoritmos aproximam o comportamento deste último por meio de processamentos em sequência, divididos em duas etapas: i) aprendizado; e ii) reconhecimento ou classificação de padrões.

Uma rede neural artificial – ou seja, formada por neurônios artificiais – sofisticada tem hoje da ordem de dezenas de milhões de sinapses (conexões entre seus neurônios), enquanto a equivalente humana tem entre 100 e 1.000 trilhões de sinapses.

Outra limitação importante: os algoritmos de inteligência artificial são especializados em uma tarefa, diferentemente da inteligência humana, capaz de se adaptar a um sem-número de aplicações. No entanto, apesar da inspiração na biologia, a real conexão entre neurônios artificiais/inteligência artificial e neurônios biológicos/inteligência humana é tema ainda controverso entre especialistas.

Parte da comunidade acredita que o aprendizado de máquina pode evoluir e chegar a imitar sistemas biológicos, gerando máquinas inteligentes que, assim como a inteligência humana, teriam uso geral. Outra parte entende que a inteligência artificial é uma técnica de modelagem estatística e enxerga o aperfeiçoamento dessas técnicas no âmbito da matemática aplicada, ou seja, de forma desconectada a modelos biológicos.

 

Mining, big, science....

O campo de IA trouxe consigo uma multitude de termos técnicos: mineração de dados (data mining), grandes dados (big data), ciência dos dados (data science), aprendizado de máquina (machine learning) etc. A confusão é grande; por isso, definir termos técnicos se torna fundamental o esclarecimento do público.

Data mining é o processo de exploração de grandes quantidades de dados à procura de padrões consistentes, como correlações, sequências temporais e/ou espaciais, visando a descobrir relacionamentos ou estruturas ocultas. Esse é um tema que usa ferramentas estatísticas sofisticadas, técnicas de processamento da informação e, cada vez, mais inteligência artificial.

Hoje, é comum ouvirmos termos como big data, que significa grandes quantidades de dados que podem ser processados, transferidos ou armazenados pelos sistemas eletrônicos atuais e que são representados com algum grau de confiabilidade.

Outro termo: data science. Definição: manipulação estatística de grandes quantidades de dados. Por fim, machine learning, área da IA que estuda, por meio de sistemas computacionais, algoritmos e modelos estatísticos, visando à solução de uma tarefa específica, sem usar instruções explícitas e confiando em padrões/inferências.

A convergência recente desses termos deve-se à capacidade de usar cada vez mais dados reais para manipular, entender, experimentar e tomar decisões. Em muitas situações, é possível usar dados simulados para complementar os dados reais, permitindo aumentar a capacidade de detecção de novos padrões escondidos nos dados.

 

Deep Learning

Uma das áreas de machine learning, o deep learning (aprendizado profundo) é uma técnica de rede neural artificial em que esta última é representada por um modelo estruturado e hierárquico, com diversas camadas (por isso, ‘profundo’) de neurônios artificiais que tentam modelar dados não processados ou minimamente processados.

Exemplo de aplicação de deep learning: análise de uma imagem à procura de objetos, assim como fariam os olhos humanos. No caso da identificação de padrões em imagens, podem existir camadas dedicadas à extração de características como ‘redondo’, ‘reto’, ‘triangular’ ou ‘quadrado’, dependendo da natureza dos dados empregados para ‘ensinar’ a rede.

As principais condições que favoreceram o rápido desenvolvimento de tecnologias de deep learning são:

i) o alto poder computacional moderno, provido por unidades de processamento poderosas, como as unidades de processamento gráficas (GPUs), por chips dedicados (ASICs) ou pela capacidade de armazenamento de grandes quantidades de dados na memória dos computadores;

ii) os banco de dados/imagens estruturados (como o ImageNet), com mais de 14 milhões de imagens catalogadas para uso, experimentação e testes de algoritmos de processamento/aprendizado;

iii) a pesquisa e o desenvolvimento de algoritmos sofisticados de aprendizado de máquinas (como as redes neurais artificiais em suas variadas configurações e arquiteturas);

iv) ferramentas de softwares e bibliotecas para programação (como o Git-Hub, PyTorch e Tensorflow) para o desenvolvimento de algoritmos de aprendizado de máquina;

v) interesse comercial pela tecnologia por grandes companhias, como Google, Tesla, Amazon, Facebook, bancos etc.

 

IA no CBPF

O CBPF tem se dedicado ao estudo e a aplicação de técnicas e tecnologias de IA em problemas de astrofísica, astropartículas, cosmologia, geofísica, petrofísica, entre outras.

Na astronomia, por exemplo, a IA tem se tornado ferramenta poderosa por causa do fato de grandes colaborações nessa área gerarem imensas quantidades de dados, na casa dos milhões de gigabytes – ou seja, é um cenário de big data a ser explorado.

O Grupo de Processamento de Imagens e Inteligência Artificial do CBPF iniciou sua trajetória a partir da aplicação de técnicas de redes neurais para encontrar sistemas de lentes gravitacionais, fenômeno em que a luz de um objeto cósmico distante (chamado fonte) é distorcida por uma ‘lente’ (objeto de grande massa, como uma galáxia ou aglomerado de galáxias) em seu caminho.

Esses fenômenos – interessantes para testarmos a relatividade geral, teoria da gravitação do físico de origem alemã Albert Einstein (1879-1955) – são infelizmente raros. Para aumentar a probabilidade de encontrá-los em meio à vastidão do cosmo, o Grupo de IA desenvolve algoritmos de deep learning para analisar um volume de dados com o qual humanos, sem as ferramentas adequadas, não poderiam lidar. Mais recentemente, esse trabalho se estendeu para a modelagem, isto é, a obtenção de medidas relativas a sistemas de lentes.

O grupo também aplicou o mesmo tipo de técnica de identificação de objetos e modelagem a problemas de geofísica – inclusive, problemas propostos pela indústria de óleo e gás – para compreender melhor dados do chamado Pré-sal brasileiro, com grande potencial de riqueza para o país. Nesse caso, o grupo estima a permeabilidade e porosidade das rochas que são reservatório de petróleo e gás. Importantes, essas medidas podem ajudar a tomar decisão sobre o que ainda pode ser explorado e sobre o petróleo já descoberto no fundo do oceano.

Recentemente, o Grupo de Processamento de Imagens e Inteligência Artificial do CBPF venceu a segunda edição do desafio de busca de lentes gravitacionais proposto por um grupo de cientistas da Universidade de Bolonha (Itália). O desafio consistia em classificar 100 mil imagens geradas por meio de simulações feitas pelo grupo italiano. Participaram da competição grupos de universidades norte-americanas e europeias – o grupo do CBPF foi o único da América do Sul.

 

Sci.Mind

O Sci.Mind é uma das contribuições do Grupo de Processamento de Imagens e Inteligência Artificial do CBPF para dotar a instituição e seus parceiros de tecnologias de ponta de processamento de alto desempenho para a técnica de IA e exploração de dados científicos.

A proposta é que esse supercomputador portátil fique em ambientes de desenvolvimento, seja em laboratórios, seja em salas de trabalho. O Sci.Mind tem como base o uso da tecnologia de GPU (unidades de processamento gráfico), criadas para o tratamento (renderização) de imagens em jogos 3D, ou seja, a produção de imagens com alto grau de realismo e em tempo real.

Essa capacidade de processamento está sendo aproveitada de forma mais ampla para acelerar o processamento computacional em áreas da pesquisa científica como reconhecimento de padrões e processamento de sinais/imagens, álgebra linear, análise estatística, reconstrução 3D, modelagem financeira, exploração de petróleo e gás etc.

Nesse contexto, as GPUs passaram a se chamar GPGPU (GPU de Proposito Geral). O ganho em processamento vem da alta capacidade de processamento da GPU, por meio de uma arquitetura interna que uni processamento e memória – esta integrada ao sistema de vídeo do computador. Desse modo, a CPU do computador fica liberada para tarefas mais complexas.

O projeto de criação, desenvolvimento e montagem do Sci.Mind – que tem seis placas de GPU – deu-se nestes  últimos 12 meses, por um time de profissionais da Coordenação de Desenvolvimento Tecnológico. A iniciativa faz parte da parceria que o grupo tem em um projeto de P&D com a Petrobras, o qual desenvolve pesquisas e tecnologias de processamento de imagens, inteligência artificial, simulações de propriedades de rocha. Além disso, o projeto desenvolve também tecnologias de óptica, mecânica e eletrônica em um microscópio de alta resolução.

O CBPF conta, hoje, com oito máquinas Sci.Mind, que compõem seu sistema de cálculo de alto desempenho. Os algoritmos podem ser testados localmente antes da necessidade de buscar grandes centros de processamento de alto desempenho, onde os usuários têm que seguir políticas restritivas de uso e compartilhamento dos recursos.

O CBPF terá também uma ‘versão robusta’ do Sci.Mind, com até 15 placas de GPus dedicadas ao processamento de dados científicos.

 

Márcio Portes de Albuquerque

Tecnologista sênior

CBPF

 

Clécio De Bom

Pesquisador

CBPF

 

 

registrado em:
Fim do conteúdo da página