Volgen
Alexander Ertl
Alexander Ertl
Geverifieerd e-mailadres voor epfl.ch
Titel
Geciteerd door
Geciteerd door
Jaar
mcpt at semeval-2023 task 3: Multilingual label-aware contrastive pre-training of transformers for few-and zero-shot framing detection
M Reiter-Haas, A Ertl, K Innerebner, E Lex
arXiv preprint arXiv:2303.09901, 2023
72023
Accelerating Sparse Neural Networks on GPUs
A Ertl
Bachelor Thesis, 2021
12021
Gradient-based Weight Density Balancing for Robust Dynamic Sparse Training
M Parger, A Ertl, P Eibensteiner, JH Mueller, M Winter, M Steinberger
arXiv preprint arXiv:2210.14012, 2022
2022
Multilingual Label-Aware Contrastive Pre-Training of Transformers for Few-and Zero-shot Framing Detection
M Reiter-Haas, A Ertl, K Innerhofer, E Lex
Het systeem kan de bewerking nu niet uitvoeren. Probeer het later opnieuw.
Artikelen 1–4