Skip to main content

Alistarh Group

Deep Algorithms and Systems Lab (DASLab)

Künstliche Intelligenz hat in den letzten zehn Jahren massive Fortschritte gemacht, mit Durchbrüchen in verschiedenen Anwendungen und Aufgabenbereichen. Die Nachhaltigkeit dieses Fortschrittstempos ist jedoch fraglich: Der Rechenaufwand, der für das Training und den Einsatz modernster KI-Modelle erforderlich ist, ist exponentiell gestiegen. Dadurch werden Innovationen möglicherweise behindert und es kommt zu Ungleichheiten in Bezug auf Fachwissen und wirtschaftliche Vorteile.
Die Alistarh-Gruppe arbeitet daran, diese Hindernisse zur Demokratisierung der KI zu beseitigen, indem sie Trainings- und Inferenzalgorithmen entwickelt, die deutlich effizienter sind als traditionelle Algorithmen. Zu diesem Zweck entwickeln wir neue Algorithmen für das Lernen über komprimierte (z. B. „sparse“ oder quantisierte) Darstellungen sowie effiziente System-Implementierungen, die Komprimierungs-Gewinne in der Praxis nutzen können.




Team

Image of Jiale Chen

Jiale Chen

PhD Student

Image of Vage Egiazarian

Vage Egiazarian

Postdoc

Image of Alexander Fedorov

Alexander Fedorov

PhD Student


Image of Eugenia Iofinova

Eugenia Iofinova

PhD Student

Image of Eldar Kurtic

Eldar Kurtic

Research Technician Machine Learning

+43 2243 9000 2081

Image of Roberto Lopez Castro

Roberto Lopez Castro

Postdoc


Image of Mahdi Nikdan

Mahdi Nikdan

PhD Student

Image of Andrei Panferov

Andrei Panferov

PhD Student


Image of Sergei Pankratov

Sergei Pankratov

PhD Student

Image of Erik Schultheis

Erik Schultheis

Predoctoral Visiting Scientist


Image of Yalda Shabanzadeh

Yalda Shabanzadeh

Scientific Intern

Image of Soroush Tabesh

Soroush Tabesh

PhD Student

Image of Alexandra Volkova

Alexandra Volkova

PhD Student


Laufende Projekte

Effiziente Schulung und Inferenz für massive KI-Modelle | Groß angelegtes verteiltes maschinelles Lernen | Adaptive gleichzeitige Datenstrukturen | Grundlegende Grenzen der verteilten Berechnung


Publikationen

Alistarh D-A, Rybicki J, Voitovych S. 2025. Near-optimal leader election in population protocols on graphs. Distributed Computing. View

Talaei S, Ansaripour M, Nadiradze G, Alistarh D-A. 2025. Hybrid decentralized optimization: Leveraging both first- and zeroth-order optimizers for faster convergence. Proceedings of the39th AAAI Conference on Artificial Intelligence. 39(19), 20778–20786. View

Jin T, Humayun AI, Evci U, Subramanian S, Yazdanbakhsh A, Alistarh D-A, Dziugaite GK. 2025. The journey matters: Average parameter count over pre-training unifies sparse and dense scaling laws. 13th International Conference on Learning Representations. ICLR: International Conference on Learning Representations, 85165–85181. View

Sawmya S, Kong L, Markov I, Alistarh D-A, Shavit N. 2025. Wasserstein distances, neuronal entanglement, and sparsity. 13th International Conference on Learning Representations. ICLR: International Conference on Learning Representations, 26244–26274. View

Chen J, Yao D, Pervez AA, Alistarh D-A, Locatello F. 2025. Scalable mechanistic neural networks. 13th International Conference on Learning Representations. ICLR: International Conference on Learning Representations, 63716–63737. View

Zu Allen Publikationen

ReX-Link: Dan Alistarh


Karriere

Seit 2022 Professor, Institute of Science and Technology Austria (ISTA)
2017 – 2022 Assistant Professor, Institute of Science and Technology Austria (ISTA)
2016 – 2017 „Ambizione Fellow“, Computer Science Department, ETH Zurich, Schweiz
2014 – 2016 Researcher, Microsoft Research, Cambridge, UK
2014 – 2016 Morgan Fellow, Downing College, University of Cambridge, UK
2012 – 2013 Postdoc, Massachusetts Institute of Technology, Cambridge, USA
2012 PhD, EPFL, Lausanne, Schweiz


Ausgewählte Auszeichnungen

2023 ERC Proof of Concept Grant
2018 ERC Starting Grant
2015 Awarded Swiss National Foundation “Ambizione” Fellowship
2014 Elected Morgan Fellow at Downing College, University of Cambridge
2012 Postdoctoral Fellowship of the Swiss National Foundation
2011 Best Paper Award at the International Conference on Distributed Computing and Networking


Zusätzliche Informationen

Dan Alistarhs Website



theme sidebar-arrow-up
Nach Oben