3 Fragen an Matthias Zuerl

Wir haben mit ihm über seine Forschungsarbeit zu den Eisbären gesprochen und wollen mehr über den Einsatz von moderner Technologie in der Forschung erfahren.

 

Die Zusammenarbeit von Wissenschaft und neuen Technologien ist von großer Bedeutung, um innovative Lösungen zu entwickeln. Neue Technologien ermöglichen effizientere Datenerfassung und -analysen, erschließen neue Forschungsbereiche und beschleunigen den Fortschritt in verschiedenen Bereichen wie Medizin und Umweltschutz.  Zoologische Gärten können dabei eine große Unterstützung bieten und bieten Möglichkeiten für Beobachtungen und Studien von Tieren in kontrollierten Umgebungen.

Ein Experte auf diesem Gebiet ist Matthias Zuerl. Er ist Researcher & PhD Candidate und am Department Artificial Intelligence in Biomedical Engineering (AIBE)“ der Friedrich-Alexander-Universität Erlangen-Nürnberg tätig.  Sein Forschungsprojekt VERA (Video-based Re-Identification for Animals) ist ein automatisiertes videobasiertes Analysesystem für die Verhaltensüberwachung einzelner Tiere mithilfe von Deep Learning. Bei seiner Studie haben ihn die beiden Eisbären im Tierpark unterstützt.

Redaktion: Welche Vorteile sehen sie in einem videobasierten System gegenüber der traditionellen Verhaltensbeobachtung?

Matthias Zuerl: Zunächst einmal muss man festhalten, dass die Verhaltensbeobachtung eines der wichtigsten Werkzeuge biologischer Forschung ist. Das gilt sowohl für die Haltung von Tieren in menschlicher Obhut wie auch für viele Forschungsfragen im Freiland. Im Vergleich zu anderen Untersuchungsmethoden wie beispielsweise dem Anbringen eines GPS-Halsbandes oder dem Entnehmen von Blutproben ist die Verhaltensbeobachtung ein nichtinvasiver Ansatz. Damit werden die Tiere wenig bis idealerweise gar nicht gestört.

Verhaltensbeobachtungen gehören in zoologischen Einrichtungen zur Tagesordnung. Was zunächst einmal nach einer interessanten Aufgabe klingt, entpuppt sich recht schnell als sehr aufwändige und anstrengende Arbeit. Oft sitzen oder stehen Studierende im Tiergarten im Regen, im Schnee oder in praller Sonne, um die Tiere zu beobachten. Es ist relativ offensichtlich, dass ein menschlicher Beobachter gar nicht in der Lage sein kann, dieselbe Ausdauer zu zeigen wie ein Kamera-basiertes System. Gleichzeitig ist aber eine lückenlose Überwachung in menschlicher Haltung wichtig, um frühzeitig Trends im Verhalten einzelner Tiere feststellen zu können und somit einen sich ändernden psychologischen oder physiologischen Zustand detektieren zu können.

Auch im Freiland sind automatisierte Tierbeobachtungen ein wichtiges Werkzeug für die Forschung. Eine mögliche Forschungsfrage ist beispielsweise das nichtinvasive Bestimmen von Populationsgrößen. Basierend auf den Aufnahmen von Kamerafallen kann durch eine Analyse des Materials eine Zählung durchgeführt werden - entweder manuell durch Experten oder idealerweise durch ein KI-basiertes System, das die Aufgabe wesentlich schneller erledigen kann. Eine andere mögliche Forschungsfrage ist die Bestimmung des Gesundheitszustands einzelner. Einen Einblick kann die Analyse der Bewegung einzelner Tiere auf dem Videomaterial von Kamerafallen geben – ebenfalls entweder durch Experten oder automatisch durchgeführt. Es gibt also unzählige Anwendungsmöglichkeiten.

Mit den von uns entwickelten Algorithmen und Systemen versuchen wir so, das Leben von Tierärztinnen, Pflegern, Biologen und Ökologinnen zu erleichtern. Wir automatisieren Beobachtungsprozesse und nehmen ihnen so zeitintensive Arbeiten ab. Die Interpretation der Ergebnisse der automatisierten Beobachtungen liegt aber natürlich nach wie vor bei den Expertinnen und Experten.

Redaktion: Wie funktioniert das automatisierte Monitoring-System bei den Eisbären? Wie kann das System die verschiedenen Individuen unterscheiden?

M.Z.:Im Grunde versuchen wir, mit der künstlichen Intelligenz die Vorgehensweise von menschlichen Experten nachzuahmen. Das bedeutet, dass das System drei aufeinanderfolgende Aufgaben lösen muss, die dem menschlichen Vorgehen entsprechen: Im ersten Schritt sucht das System nach der zu beobachtenden Tierart im Videomaterial. Die konkrete Aufgabe lautet also beispielsweise: "Finde Eisbären in den Videos". Dieser Schritt ist vergleichsweise einfach. Die größeren Herausforderungen stecken im zweiten und dritten Schritt. Ist ein Eisbär auf einem Bild gefunden, muss im zweiten Schritt die Identität bestimmt werden. Der dritte Schritt ist dann das tatsächliche Erkennen des gezeigten Verhaltens, also beispielsweise Trinken, Spielen oder Ruhen. Die Bestimmung der Identität eines Tieres (also die zweite Aufgabe) ist enorm wichtig, damit die gezeigten Verhaltensweisen einem bestimmten Individuum zugeordnet werden können. Detektieren wir einen Negativtrend im Verhalten, so müssen wir wissen, welches individuelle Tier diesen Trend zeigt, um entsprechende Maßnahmen ergreifen zu können.

Künstliche Intelligenz lernt in vielen Aspekten sehr vergleichbar wie wir Menschen. In Nürnberg hatten wir beispielsweise bis letztes Jahr 2 Eisbären. Vera, das weibliche Tier und Nanuq, das Männchen. Wenn ein System jetzt den Unterschied zwischen diesen beiden Tieren lernen soll, dann müssen wir ihm möglichst viele Bilder von Vera und Nanuq zeigen, jeweils mit der Information, welches der beiden Tiere zu sehen ist. Das heißt aber, dass im Vorfeld ein Datensatz vorbereitet werden muss, der diese Information enthält. Konkret bedeutet das, dass die Biologinnen, mit denen wir in diesem Projekt zusammenarbeiten, auf mehreren hundert Bildern die Identität vermerkt haben. Diese Bilder haben wir dann der künstlichen Intelligenz während des Trainings gezeigt, bis das System die beiden Tiere verlässlich auseinanderhalten konnte.

Dasselbe gilt für das gezeigte Verhalten. Wenn wir unserem System beibringen wollen, was der Unterschied zwischen Rennen, Laufen, Sitzen, Liegen, Essen, Trinken, Kratzen oder Fellpflege ist, dann müssen wir möglichst viele Videosequenzen finden, auf denen die Tiere diese Verhaltensweisen zeigen. Leider lernt eine künstliche Intelligenz oft sehr langsam. Wenn ich einem Menschen einmal zeige, wie ein sich kratzender Eisbär aussieht, dann dieser Mensch in der Lage, sein Wissen zu generalisieren und diese Verhaltensweise relativ zuverlässig zu erkennen. Eine künstliche Intelligenz hingegen muss erst sehr viele verschiedene Versionen von sich kratzende Eisbären gesehen haben, um zuverlässig dieses Verhalten detektieren zu können. Das bedeutet, dass meine Kolleginnen in diesem Fall viele hundert Stunden investiert haben, um einen entsprechenden Datensatz zu generieren. Ich selbst kann mich immer auf die Ausrede berufen, dass ich als Informatiker keine Ahnung von den biologischen Zusammenhängen hab und deswegen nicht beim Sortieren der Daten helfen kann.

Redaktion: Was ist der nächste Schritt Ihrer Forschung? Wie geht es weiter?

M.Z.: Unsere bisherigen Experimente bezogen sich vor allem auf Eisbären. Unsere Algorithmen sind aber so entwickelt, dass sie auch für viele andere Spezies funktionieren sollen. Das Problem ist die geringe Verfügbarkeit von Datensätzen für andere Arten. Wir sind deshalb im steten Austausch mit Forschungsgruppen aus der ganzen Welt. Neben Eisbären werden wir in naher Zukunft auch Braunbären, Wölfe, Luchse und Füchse in unsere Experimente mit einbeziehen. Die benötigten Aufnahmen liefern uns dabei weiterhin zoologische Einrichtungen und Forschungsgruppen, die Daten im Freiland erheben. Und mein ganz persönlicher Traum ist es, während meiner Doktorarbeit in ein Gebiet zu reisen, in dem Eisbären im Freiland leben, um diese filmen und die Aufnahmen im Anschluss durch unsere Software auswerten zu können.

Sie möchten mehr erfahren?

Weitere Infos über die spannende Arbeit von Matthias Zuerl gibt es auf seiner Projektseite: https://team-vera.github.io/

und auf seinem Youtube-Kanal: https://www.youtube.com/@teamvera

Öffnungszeiten

Heute, 23. April
9:00 - 18:30 Uhr
Letzter Einlass: 17:00 Uhr
Alle Öffnungszeiten

Fütterungen & Trainings

  • Flugshow 13:30 Uhr
  • Pinguin-Talk 14:30 Uhr
  • Pelikane 14:30 Uhr
Alle Fütterungen

Plan

Plan