Der allgemeine Trend im Bereich künstlicher Intelligenz geht in den letzten Jahren zu immer größeren und performanteren Modellen. Insbesondere bei neuronalen Netzen steigt die Anzahl der Schichten und der Gewichte explosionsartig an. Dies steht im direkten Zusammenhang mit der Etablierung der Deep Neural Networks. Aber ist größer automatisch immer besser? Die Größe der neuronalen Netze verlangt nach immer größerer, energiehungrigerer und teurerer Hardware. Um Ressourcen und das Klima zu schonen, entwickelt das Fraunhofer IMS Methoden des maschinellen Lernens, die direkt auf den Smarten Sensoren funktionieren. Dies umfasst sowohl die Inferenz als auch das eigentliche Lernen.