Alistarh Group
Deep Algorithms and Systems Lab (DASLab)
Künstliche Intelligenz hat in den letzten zehn Jahren massive Fortschritte gemacht, mit Durchbrüchen in verschiedenen Anwendungen und Aufgabenbereichen. Die Nachhaltigkeit dieses Fortschrittstempos ist jedoch fraglich: Der Rechenaufwand, der für das Training und den Einsatz modernster KI-Modelle erforderlich ist, ist exponentiell gestiegen. Dadurch werden Innovationen möglicherweise behindert und es kommt zu Ungleichheiten in Bezug auf Fachwissen und wirtschaftliche Vorteile.
Die Alistarh-Gruppe arbeitet daran, diese Hindernisse zur Demokratisierung der KI zu beseitigen, indem sie Trainings- und Inferenzalgorithmen entwickelt, die deutlich effizienter sind als traditionelle Algorithmen. Zu diesem Zweck entwickeln wir neue Algorithmen für das Lernen über komprimierte (z. B. „sparse“ oder quantisierte) Darstellungen sowie effiziente System-Implementierungen, die Komprimierungs-Gewinne in der Praxis nutzen können.
Team
Laufende Projekte
Effiziente Schulung und Inferenz für massive KI-Modelle | Groß angelegtes verteiltes maschinelles Lernen | Adaptive gleichzeitige Datenstrukturen | Grundlegende Grenzen der verteilten Berechnung
Publikationen
Frantar E. 2024. Compressing large neural networks : Algorithms, systems and scaling laws. Institute of Science and Technology Austria. View
Markov I. 2024. Communication-efficient distributed training of deep neural networks: An algorithms and systems perspective. Institute of Science and Technology Austria. View
Egiazarian V, Panferov A, Kuznedelev D, Frantar E, Babenko A, Alistarh D-A. 2024. Extreme compression of large language models via additive quantization. Proceedings of the 41st International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 235, 12284–12303. View
Nikdan M, Tabesh S, Crncevic E, Alistarh D-A. 2024. RoSA: Accurate parameter-efficient fine-tuning via robust adaptation. Proceedings of the 41st International Conference on Machine Learning. ICML: International Conference on Machine Learning vol. 235, 38187–38206. View
Moakhar AS, Iofinova EB, Frantar E, Alistarh D-A. 2024. SPADE: Sparsity-guided debugging for deep neural networks. Proceedings of the 41st International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 235, 45955–45987. View
ReX-Link: Dan Alistarh
Karriere
Seit 2022 Professor, Institute of Science and Technology Austria (ISTA)
2017 – 2022 Assistant Professor, Institute of Science and Technology Austria (ISTA)
2016 – 2017 „Ambizione Fellow“, Computer Science Department, ETH Zurich, Schweiz
2014 – 2016 Researcher, Microsoft Research, Cambridge, UK
2014 – 2016 Morgan Fellow, Downing College, University of Cambridge, UK
2012 – 2013 Postdoc, Massachusetts Institute of Technology, Cambridge, USA
2012 PhD, EPFL, Lausanne, Schweiz
Ausgewählte Auszeichnungen
2023 ERC Proof of Concept Grant
2018 ERC Starting Grant
2015 Awarded Swiss National Foundation “Ambizione” Fellowship
2014 Elected Morgan Fellow at Downing College, University of Cambridge
2012 Postdoctoral Fellowship of the Swiss National Foundation
2011 Best Paper Award at the International Conference on Distributed Computing and Networking