banner
Nachrichtenzentrum
Gerne erfüllen wir Ihren individuellen Wunsch

Neuronales Netzwerk hilft bei der Entwicklung brandneuer Proteine

Jul 09, 2023

Ein flexibler, sprachbasierter Ansatz erweist sich bei der Lösung hartnäckiger Probleme in der Materialwissenschaft als überraschend effektiv.

Amerikanisches Institut für Physik

Bild: Beispielvisualisierungen von Designer-Protein-Biomaterialien, erstellt mithilfe eines neuronalen Transformer-Graph-Netzwerks, das komplexe Anweisungen verstehen und Materialien anhand ihrer ultimativen Bausteine ​​analysieren und entwerfen kann.mehr sehen

Bildnachweis: Markus Bühler

WASHINGTON, 29. August 2023 – Mit ihrer komplizierten Anordnung und dynamischen Funktionalität erfüllen Proteine ​​eine Vielzahl biologischer Aufgaben, indem sie einzigartige Anordnungen einfacher Bausteine ​​verwenden, bei denen die Geometrie entscheidend ist. Die Übersetzung dieser nahezu unbegrenzten Bibliothek von Anordnungen in ihre jeweiligen Funktionen könnte es Forschern ermöglichen, maßgeschneiderte Proteine ​​für bestimmte Verwendungszwecke zu entwerfen.

Im Journal of Applied Physics von AIP Publishing kombinierte Markus Buehler vom Massachusetts Institute of Technology Aufmerksamkeits-Neuronale Netze, oft als Transformatoren bezeichnet, mit Graph-Neuronalen Netzen, um Proteine ​​besser zu verstehen und zu entwerfen. Der Ansatz kombiniert die Stärken des geometrischen Deep Learning mit denen von Sprachmodellen, um nicht nur bestehende Proteineigenschaften vorherzusagen, sondern auch neue Proteine ​​vorzustellen, die die Natur noch nicht entwickelt hat.

„Mit dieser neuen Methode können wir alles, was die Natur erfunden hat, als Wissensbasis nutzen, indem wir die zugrunde liegenden Prinzipien modellieren“, sagte Buehler. „Das Modell kombiniert diese natürlichen Bausteine ​​neu, um neue Funktionen zu erreichen und solche Aufgaben zu lösen.“

Aufgrund ihrer komplexen Strukturen, ihrer Multitasking-Fähigkeit und ihrer Tendenz, beim Auflösen ihre Form zu ändern, sind Proteine ​​bekanntermaßen schwierig zu modellieren. Maschinelles Lernen hat die Fähigkeit bewiesen, die nanoskaligen Kräfte, die das Verhalten von Proteinen steuern, in Arbeitsrahmen zu übersetzen, die ihre Funktion beschreiben. Der umgekehrte Weg – die Umwandlung einer gewünschten Funktion in eine Proteinstruktur – bleibt jedoch eine Herausforderung.

Um diese Herausforderung zu meistern, wandelt Buehlers Modell Zahlen, Beschreibungen, Aufgaben und andere Elemente in Symbole um, die seine neuronalen Netze verwenden können.

Er trainierte sein Modell zunächst, um die Sequenzierung, Löslichkeit und Aminosäurebausteine ​​verschiedener Proteine ​​anhand ihrer Funktionen vorherzusagen. Anschließend brachte er ihm bei, kreativ zu werden und völlig neue Strukturen zu erzeugen, nachdem er erste Parameter für die Funktion eines neuen Proteins erhalten hatte.

Der Ansatz ermöglichte es ihm, feste Versionen antimikrobieller Proteine ​​herzustellen, die zuvor in Wasser gelöst werden mussten. In einem anderen Beispiel nahm sein Team ein natürlich vorkommendes Seidenprotein und entwickelte es in verschiedene neue Formen, indem es ihm unter anderem eine Helixform für mehr Elastizität oder eine Faltenstruktur für zusätzliche Zähigkeit verlieh.

Das Modell erfüllte viele der zentralen Aufgaben des Entwurfs neuer Proteine, aber Buehler sagte, der Ansatz könne noch mehr Eingaben für mehr Aufgaben integrieren und ihn möglicherweise noch leistungsfähiger machen.

„Eine große Überraschung war, dass das Modell außergewöhnlich gut funktionierte, obwohl es für die Lösung mehrerer Aufgaben entwickelt wurde. Das liegt wahrscheinlich daran, dass das Modell mehr lernt, indem es verschiedene Aufgaben berücksichtigt“, sagte er. „Diese Änderung bedeutet, dass Forscher nun nicht mehr spezialisierte Modelle für bestimmte Aufgaben erstellen, sondern breit in Multitasking- und multimodalen Modellen denken können.“

Aufgrund der breiten Natur dieses Ansatzes kann dieses Modell auf viele Bereiche außerhalb des Proteindesigns angewendet werden.

„Während unser aktueller Fokus auf Proteinen liegt, hat diese Methode großes Potenzial in der Materialwissenschaft“, sagte Buehler. „Unser besonderes Interesse gilt der Erforschung des Materialversagensverhaltens mit dem Ziel, Materialien mit spezifischen Versagensmustern zu entwickeln.“

###

Der Artikel „Generatives vortrainiertes autoregressives transformatorisches graphisches neuronales Netzwerk zur Analyse und Entdeckung neuartiger Proteine“ wurde von Markus Buehler verfasst. Es erscheint am 29. August 2023 im Journal of Applied Physics (DOI: 10.1063/5.0157367). Nach diesem Datum ist es unter https://doi.org/10.1063/5.0157367 abrufbar.

ÜBER DIE ZEITSCHRIFT

Das Journal of Applied Physics ist eine einflussreiche internationale Zeitschrift, die bedeutende neue experimentelle und theoretische Ergebnisse in allen Bereichen der angewandten Physik veröffentlicht. Siehe https://aip.scitation.org/journal/jap.

###

Zeitschrift für Angewandte Physik

10.1063/5.0157367

Generatives vorab trainiertes autoregressives transformatorisches neuronales Netzwerk zur Analyse und Entdeckung neuartiger Proteine

29.08.2023

Haftungsausschluss: AAAS und EurekAlert! sind nicht verantwortlich für die Richtigkeit der auf EurekAlert veröffentlichten Pressemitteilungen! durch beitragende Institutionen oder für die Nutzung jeglicher Informationen über das EurekAlert-System.

Bild: Beispielvisualisierungen von Designer-Protein-Biomaterialien, erstellt mithilfe eines neuronalen Transformer-Graph-Netzwerks, das komplexe Anweisungen verstehen und Materialien anhand ihrer ultimativen Bausteine ​​analysieren und entwerfen kann.ÜBER DIE ZEITSCHRIFTHaftungsausschluss: