banner
Lar / blog / Novo modelo de IA transforma a compreensão do metal
blog

Novo modelo de IA transforma a compreensão do metal

Sep 21, 2023Sep 21, 2023

13 de março de 2023

Este artigo foi revisado de acordo com o processo editorial e as políticas da Science X. Os editores destacaram os seguintes atributos, garantindo a credibilidade do conteúdo:

verificado

publicação revisada por pares

fonte confiável

revisar

pela Escola Politécnica Federal de Lausanne

Como um iPhone prevê a próxima palavra que você digitará em suas mensagens? A tecnologia por trás disso, e também no centro de muitos aplicativos de IA, é chamada de transformador; um algoritmo de aprendizado profundo que detecta padrões em conjuntos de dados.

Agora, pesquisadores da EPFL e KAIST criaram um transformador para Metal-Organic Frameworks (MOFs), uma classe de materiais cristalinos porosos. Ao combinar ligantes orgânicos com nós metálicos, os químicos podem sintetizar milhões de materiais diferentes com aplicações potenciais em armazenamento de energia e separação de gases.

O "MOFtransformer" é projetado para ser o ChatGPT para pesquisadores que estudam MOFs. Sua arquitetura é baseada em uma IA chamada Google Brain, que pode processar linguagem natural e forma o núcleo de modelos de linguagem populares, como o GPT-3, o predecessor do ChatGPT. A ideia central por trás desses modelos é que eles são pré-treinados em uma grande quantidade de texto; portanto, quando começamos a digitar em um iPhone, por exemplo, modelos como esse "sabem" e completam automaticamente a próxima palavra mais provável.

"Queríamos explorar essa ideia para MOFs, mas em vez de dar uma sugestão de palavra, queríamos sugerir uma propriedade", diz o professor Berend Smit, que liderou o lado EPFL do projeto. "Pré-treinamos o MOFTransformer com um milhão de MOFs hipotéticos para aprender suas características essenciais, que representamos como uma sentença. O modelo foi então treinado para completar essas sentenças para fornecer as características corretas do MOF."

Os pesquisadores então ajustaram o MOFTransformer para tarefas relacionadas ao armazenamento de hidrogênio, como a capacidade de armazenamento de hidrogênio, seu coeficiente de difusão e o intervalo de banda do MOF (uma "barreira de energia" que determina a facilidade com que os elétrons podem se mover através de um material ).

A abordagem mostrou que o MOFTransformer poderia obter resultados usando muito menos dados em comparação com os métodos convencionais de aprendizado de máquina, que exigem muito mais dados. "Por causa do pré-treinamento, o MOFTtransformer já conhece muitas das propriedades gerais dos MOFs; e por causa desse conhecimento, precisamos de menos dados para treinar outra propriedade", diz Smit. Além disso, o mesmo modelo pode ser usado para todas as propriedades, enquanto no aprendizado de máquina convencional, um modelo separado deve ser desenvolvido para cada aplicação.

O MOFTransformer é um divisor de águas para o estudo de MOFs, fornecendo resultados mais rápidos com menos dados e uma compreensão mais abrangente do material. Os pesquisadores esperam que o MOFTransformer abra caminho para o desenvolvimento de novos MOFs com propriedades aprimoradas para armazenamento de hidrogênio e outras aplicações.

As descobertas foram publicadas na revista Nature Machine Intelligence.

Mais Informações: Jihan Kim, um transformador de pré-treinamento multimodal para aprendizado de transferência universal em estruturas metal-orgânicas, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00628-2. www.nature.com/articles/s42256-023-00628-2

Informações do jornal:Inteligência da Máquina da Natureza

Fornecido por Ecole Polytechnique Federale de Lausanne