Cray erreicht zusammen mit Branchenführern neuen Performance-Meilenstein für skalierbares Deep Learning
München, 07. Dezember 2016 – Auf der Neural Information Processing Systems (NIPS) Konferenz 2016 in Barcelona präsentiert Weltmarktführer Cray Inc. (Nasdaq: CRAY) die Resultate seiner Deep-Learning-Kooperation mit Microsoft und dem nationalen Hochleistungsrechenzentrum der Schweiz (CSCS). Dabei werden Cray-Supercomputer genutzt, um den Einsatzbereich skalierbarer Deep-Learning-Algorithmen weiter auszuweiten.
Die Entwicklung immer größer dimensionierter Deep-Learning-Modelle bahnt den Weg in völlig neue Erkenntniswelten. Allerdings lassen sich mit herkömmlichen Systemen und Architekturen nicht beliebig komplexe Probleme bewältigen, da das Training der zugehörigen Modelle zu viel Zeit in Anspruch nimmt. Cray, Microsoft und Wissenschaftlern am CSCS gelang es nun gemeinsam, deren jahrzehntelange Erfahrung im Hochleistungsrechnen zu nutzen, um die Performance des Microsoft Cognitive Toolkits (ehemals CNTK) auf einem Cray® XC50-Supercomputer zu skalieren, der unter dem Namen „Piz Daint“ am CSCS seinen Dienst verrichtet.
Durch die Beschleunigung des Trainingsvorgangs können Data Scientists ihre Resultate nicht mehr nach Wochen oder Monaten, sondern innerhalb von Stunden oder sogar Minuten erhalten. Indem Supercomputing-Architekturen und -Technologien in Deep-Learning-Frameworks eingebunden werden, lassen sich völlig neuartige Aufgaben in Angriff nehmen. So kann an die Stelle der Bilderkennung nun die Videoerkennung treten und anstelle der Erkennung einfacher Sprachbausteine die kontextuelle Verarbeitung natürlicher Sprache.
Deep-Learning-Problemstellungen stützen sich auf ähnliche Algorithmen wie Anwendungen, die traditionell auf Massenparallelrechnern ausgeführt werden. Indem die knotenübergreifende Kommunikation mit dem Cray® XC Aries-Netzwerk und einer hochleistungsfähigen MPI-Bibliothek optimiert wird, stehen jeder Trainingsaufgabe erheblich mehr Rechenressourcen zur Verfügung. Das Resultat: deutlich weniger Zeitaufwand für das Modelltraining.
„Dank der überlegenen Leistungsanalyse und -profilierung sowie der einzigartigen XC-Architektur von Cray konnten wir auf unserem Piz Daint-System Deep-Learning-Berechnungen in einem Umfang skalieren, wie dies bisher undenkbar war“, erklärt Prof. Dr. Thomas C. Schulthess, Direktor des Schweizerischen Hochleistungsrechenzentrums. „Das Beste daran ist, dass sich die Wissenschaftler und Forscher nun mit unserem bestehenden Cray XC-Supercomputer an Deep-Learning-Probleme heranwagen können, die bis dato außerhalb ihrer Reichweite lagen.“
„Die Anwendung eines Supercomputing-Konzepts auf die Optimierung von Deep-Learning-Aufgaben ist ein entscheidender Durchbruch für das skalierbare Trainieren und Evaluieren von Deep-Learning-Algorithmen“, ergänzt Dr. Xuedong Huang, anerkannter Ingenieur bei der Microsoft AI and Research Group. „Unsere Zusammenarbeit mit Cray und dem CSCS hat gezeigt, dass sich die Grenzen des Deep Learning mit dem Microsoft Cognitive Toolkit erheblich ausdehnen lassen.“
In gemeinsamer Arbeit erweiterte ein Team von Cray-, Microsoft- und CSCS-Experten das Microsoft Cognitive Toolkit auf mehr als 1.000 NVIDIA® Tesla® P100-Grafikprozessoren auf dem Cray XC50-Supercomputer am CSCS. Infolge dieser Kooperation können Wissenschaftler nun sehr viel umfangreichere und komplexere vielschichtige Deep-Learning-Berechnungen skaliert ausführen und dabei auf die Leistung eines Cray-Supercomputers zurückgreifen.
Um Aufbau und Implementierung von Deep-Learning-Umgebungen im Supercomputing-Kontext möglichst einfach zu gestalten, stellt Cray seinen XC-Kunden entsprechende Werkzeuge wie das Microsoft Cognitive Toolkit zur Verfügung, mit denen sie Deep-Learning-Anwendungen mit maximaler Leistung und Skalierbarkeit auf ihrem Cray-Supercomputern ausführen können. Die Verschmelzung von High-Performance Computing mit Deep Learning ist ein weiterer Schritt hin zu der von Cray angestrebten Konvergenz von Supercomputing und Big Data.
Dr. Mark S. Staveley, Leiter des Bereichs für Deep Learning und maschinelles Lernen bei Cray, ist überzeugt: „Nur Cray bringt die Verbindung aus Supercomputing-Technologien, Best Practices und Performanceoptimierung mit, die für die Skalierung von Deep-Learning-Problemstellungen erforderlich ist. Mit dieser Kompetenz unterstützen wir neue Herangehensweisen und Modelle und sorgen dafür, dass die Wissenschaftler ihre Träume verwirklichen und ihre Theorien in der Praxis testen können. Unsere Zusammenarbeit mit Microsoft und CSCS markiert einen Wendepunkt in der noch jungen Geschichte des Deep Learning.“
Ausführliche Informationen zu den Cray-Lösungen für maschinelles Lernen und Deep Learning und die Supercomputer der Cray XC-Serie finden Sie auf der Cray-Website unter www.cray.com.
Pressekontakt
Matthias Opfermann/Ina Rohe/Amelie Nägelein
eloquenza pr gmbh
Emil-Riedel-Str. 18
80538 München
Tel.: 089-242038-0
E-Mail: cray@eloquenza.de
Über Cray Inc.
Als weltweiter Marktführer für Supercomputing stellt Cray Inc. (Nasdaq: CRAY) Wissenschaftlern und Ingenieuren aus dem Industrie-, Forschungs- und Staatssektor innovative Systeme und Lösungen bereit, mit denen sich fordernde Simulations- und Analyseaufgaben nachhaltig bewältigen lassen. Mit über 40 Jahren Erfahrung bei Entwicklung und Service der weltweit modernsten Supercomputer bietet ihnen Cray ein umfassendes Portfolio an Supercomputern sowie Big Data-, Storage- und Analytics-Lösungen, die sich durch eine konkurrenzlos hohe Performance, Effizienz und Skalierbarkeit auszeichnen. Der adaptive Supercomputing-Ansatz von Cray zielt auf zukunftsweisende Produkte, die verschiedene Prozessortechnologien in einem einheitlichen Architekturkonzept kombinieren und damit heute und in der Zukunft höchsten Performance-Anforderungen gerecht werden. Weitere Informationen unter www.cray.com.
###
Cray und das stilisierte CRAY-Zeichen sind eingetragene Handelsmarken von Cray Inc. in den Vereinigten Staaten und anderen Ländern. XC50 und XC sind Handelsmarken von Cray Inc. Andere hier erwähnte Produktnamen und Services sind Handelsmarken ihrer jeweiligen Besitzer.
Tags: