Mondelli Group
Data Science, Machine Learning und Informationstheorie
Wir befinden uns inmitten einer Revolution der Informationstechnologie, in der Daten die wichtigste Ware darstellen. Die Auswertung einer explodierenden Zahl von Datensätzen macht die Behandlung von komplexen Inferenzproblemen notwendig. Die Mondelli Gruppe arbeitet an der Entwicklung mathematischer Lösungen. Diese Inferenzprobleme erstrecken sich über verschiedene Gebiete und entstehen in vielen Applikationen aus den Ingenieurs- und Naturwissenschaften. Die Mondelli Gruppe konzentriert sich insbesondere auf kabellose Kommunikation und maschinelles Lernen. Das Ziel kabelloser Kommunikation in einem Übertragungskanal ist, codierte Information als Botschaft zu senden und Maße wie Komplexität, Zuverlässigkeit, Latenz, Durchsatz und Bandbreite zu optimieren. Das Ziel des maschinellen Lernens ist zu verstehen, wie viele Samples genügende Information übermitteln, um eine gewisse Aufgabe zu erfüllen, und die besten Methoden herauszufinden, diese Samples einzusetzen. Die Informationstheorie inspiriert sowohl die Sichtweise als auch die Werkzeuge der Mondelli Gruppe, was zur der Untersuchung der folgenden grundlegenden Fragen führt: Wie wenig Information braucht es, um ein Inferenzproblem zu lösen? Ist der Entwurf eines Algorithmus mit geringer Komplexität möglich? Was sind die Vor- und Nachteile der beteiligten Paramater (z.B. Dimension des Problems, Größe des Datensamples, Komplexität)?
Team
Laufende Projekte
Grenzen des und effiziente Algorithmen für Deep Learning | Nicht-konvexe Optimierung in hohen Dimensionen | Optimales Code-Design für kurze Blocklängen
Publikationen
Kögler K, Shevchenko A, Hassani H, Mondelli M. 2024. Compression of structured data with autoencoders: Provable benefit of nonlinearities and depth. Proceedings of the 41st International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 235, 24964–25015. View
Esposito AR, Mondelli M. 2024. Concentration without independence via information measures. IEEE Transactions on Information Theory. 70(6), 3823–3839. View
Depope A, Mondelli M, Robinson MR. 2024. Inference of genetic effects via approximate message passing. 2024 IEEE International Conference on Acoustics, Speech, and Signal Processing. ICASSP: International Conference on Acoustics, Speech and Signal Processing, 13151–13155. View
Súkeník P, Mondelli M, Lampert C. 2023. Deep neural collapse is provably optimal for the deep unconstrained features model. 37th Annual Conference on Neural Information Processing Systems. NeurIPS: Neural Information Processing Systems, NeurIPS, . View
Bombari S, Kiyani S, Mondelli M. 2023. Beyond the universal law of robustness: Sharper laws for random features and neural tangent kernels. Proceedings of the 40th International Conference on Machine Learning. ICML: International Conference on Machine Learning, PMLR, vol. 202, 2738–2776. View
ReX-Link: Marco Mondelli
Karriere
Seit 2019 Assistant Professor, Institute of Science and Technology Austria (ISTA)
2017 – 2019 Postdoc, Stanford University, Stanford, USA
2018 Research Fellow, Simons Institute for the Theory of Computing, Berkeley, USA
2016 PhD, EPFL, Lausanne, Schweiz
Ausgewählte Auszeichnungen
2019 Lopez-Loreta Prize
2018 Simons-Berkeley Research Fellowship
2018 EPFL Doctorate Award
2017 Early Postdoc Mobility Fellowship, Swiss National Science Foundation
2016 Best Paper Award, ACM Symposium on Theory of Computing (STOC)
2015 Best Student Paper Award, IEEE International Symposium on Information Theory (ISIT)
2015 Dan David Prize Scholarship