Interview mit Dr. Niklas Naehrig, Leiter Consulting & Sustainability, Wincasa
Die Berichterstattung zur Nachhaltigkeit wird immer komplexer. Verschiedene Benchmarks, Standards und Zertifikate verlangen eine Vielzahl an Daten und Kennzahlen. Wincasa, als führender Immobilien-Dienstleister der Schweiz, bewirtschaftet die Portfolios mehrerer grosser institutioneller Eigentümer, die direkt von diesen Herausforderungen betroffen sind. Als Bewirtschafter ist Wincasa an der Quelle der Liegenschaften der Kunden und somit am Kern der ESG-Performance der Liegenschaften. Das Nachhaltigkeitsteam von Wincasa rund um Niklas Naehrig kümmert sich um die Erfassung und Aufbereitung dieser Daten für das ESG-Reporting in den Geschäftsberichten der Kunden sowie für Zertifikate und Benchmarks. Dafür wird Wincasa von Novalytica im gesamten Prozess mit technischem Knowhow in der Erfassung und Prozessierung der Daten unterstützt, um die Datenflüsse möglichst automatisieren zu können.

Niklas Naehrig, wie haben sich die Anforderungen an euch als Bewirtschafter und an eure Kunden, die Eigentümer, im Zusammenhang mit dem ESG-Reporting verändert?
Ich sehe hier im Wesentlichen drei Trends: Während die Offenlegung der Nachhaltigkeit lange Zeit auf Freiwilligkeit basiert hat, wurde dies in den letzten beiden Jahren immer mehr zu einer Verpflichtung. In der Schweiz zum Beispiel sind AMAS-Mitglieder inzwischen angehalten, bestimmte umweltrelevante Kennzahlen zu veröffentlichen. Auch KGAST und ASIP publizieren Leitlinien für ihre Mitglieder, die sich stark an den Vorgaben der AMAS orientieren. Schaut man ins nahe Ausland, so verpflichtet in der EU die CSRD (Corporate Sustainability Reporting Directive) resp. ESRS (European Sustainability Reporting Standards) Unternehmen zur Offenlegung ihrer Nachhaltigkeit.
Das zweite Thema findet innerhalb des Reportings statt. In der Vergangenheit war die Offenlegung bereits ein Wert an sich. Das widerspiegelt sich zum Beispiel in der AMAS Kennzahl des Abdeckungsgrades, wo angegeben wird, für welchen Anteil der Liegenschaften im Portfolio Energieverbrauchsdaten erhoben werden. In Zukunft sehe ich eine klare Entwicklung zu konkreten Aktions- und Transitionsplänen. Eigentümer werden offenlegen müssen, mit welchen Massnahmen sie ihre Strategien umsetzen.
Der wichtigste Punkt aber betrifft die Daten selbst. Die Anforderungen sowohl an die Qualität als auch die Quantität der rapportierten Daten sind massiv gestiegen. Hier spielt auch die Auditierung durch Dritte eine wichtige Rolle.
Die Erfassung von Verbrauchsdaten spielt eine zentrale Rolle im ESG-Reporting. Wie geht ihr bei Wincasa dabei vor?
Spricht man von Verbräuchen, muss man zunächst definieren, von welcher Art von Verbräuchen man spricht. Bei Wincasa befassen wir uns intensiv mit den Kategorien Energie, Wasser und Abfall. Eine grosse Herausforderung ist dabei insbesondere der Stromverbrauch. Um diesen automatisiert zu erfassen, kann man private Zählerinfrastrukturen implementieren. Dies ist aber eher eine Luxusvariante. Ein Grossteil der Erfassung läuft manuell über die Verbrauchsabrechnungen. Hier hat man dann unstrukturierte Daten in PDF-Dokumenten, die man zuerst strukturieren muss. Um diesen Prozess effizienter zu gestalten, haben wir gemeinsam mit Novalytica eine innovative Lösung entwickelt. Einerseits geht es darum, dass die Rechnungen mithilfe von künstlicher Intelligenz (KI) ausgelesen und strukturiert werden, aber auch um technologische Unterstützung bei der Plausibilisierung der Daten.
Wie nutzt ihr KI und moderne Technologien, um diese unstrukturierten Daten aus den Verbrauchsabrechnungen zu erfassen?
Energiewerke sind sehr oft noch nicht so weit, dass Daten direkt von dort bezogen werden können. Darum haben wir mit Novalytica eine alternative Lösung entwickelt. Dabei werden die vorhandenen PDF-Abrechnungen oder Scans von Abrechnungen eingelesen und die relevanten Daten daraus mittels modernen, KI-basierten Algorithmen extrahiert. Dieser Prozess wird für jede einzelne Abrechnung durchgeführt. Verschiedene Qualitätsprüfungen plausibilisieren die extrahierten Daten und stellen so eine hohe Qualität in der Datengrundlage sicher.
In der Schweiz gibt es hunderte verschiedener Energiewerke, deren Abrechnungen jeweils unterschiedlich formatiert sind. Das ist eine grosse Herausforderung, da die relevanten Datenpunkte nicht immer am gleichen Ort sind. Dafür braucht es eine Technologie, die einerseits flexibel und gleichzeitig akkurat ist. Neben intelligentem OCR-Scanning, das den Text in den Abrechnungen maschinenlesbar macht, helfen insbesondere moderne Sprachmodelle dabei, die relevanten Datenpunkte in den Abrechnungen automatisiert und in hoher Genauigkeit zu finden und zu extrahieren.
Wir haben nun viel über die Erfassung der Grundlagendaten gesprochen. Wie werden daraus Kennzahlen, wie sie von Standards wie AMAS verlangt werden, berechnet?
Der erste Schritt besteht in der Erfassung aller relevanter Grundlagendaten. Anschliessend müssen diese miteinander verknüpft werden. Für die Berechnung der CO2-Intensität werden beispielsweise neben den reinen Verbrauchsdaten auch Flächendaten und Emissionsfaktoren benötigt. Diese verschiedenen Datenquellen müssen kombiniert werden, um die verlangten KPIs zu berechnen. Im Hintergrund müssen alle Daten sauber erfasst sein, damit pro Energieträger der entsprechende Emissionsfaktor hinzugefügt werden kann und somit pro Energieträger CO2-Emissionen berechnet werden können. Schlussendlich wird mit den Flächenangaben die Intensität berechnet. Nun können die Daten so aufbereitet werden, dass sie bereit für die Veröffentlichung im Geschäftsbericht sind.
Wie stellt ihr in diesem Prozess die Qualität der Daten sicher?
Unser Erfolgsrezept ist eine Kombination aus Fachexpertise und modernen Technologien. Novalytica hat mithilfe von künstlicher Intelligenz und modernen Algorithmen verschiedene Datenqualitätsprüfungen implementiert, die zum Beispiel warnen, wenn ein Datenpunkt mehr als der definierte Schwellwert vom Wert der Vorjahresperiode abweicht oder wenn ein Datenwert fehlt. Kombiniert mit der Erfahrung des Nachhaltigkeitsteams von Wincasa, die solche Warnungen oder Fehler prüfen und bei Bedarf korrigieren, führt dies zu einer sehr hohen Datenqualität.
Um an einem Benchmark wie GRESB teilzunehmen, aber auch für andere Reportingstandards braucht es neben Verbräuchen noch weitere Daten. Diese sind oft in verschiedenen Systemen erfasst. Wie optimiert ihr die Datenflüsse für eure Kunden, sodass schlussendlich das benötigte Reporting möglichst automatisiert erstellt wird?
Das ist effektiv eine grosse Herausforderung. Ein zentrales Element ist dabei die Datenstrategie. In der Praxis fragen unsere Kunden oft sehr kurzfristig Daten an, zum Beispiel für GRESB. Diese so rasch und ohne Datenstrategie im Hintergrund liefern zu müssen, ist leider oft mit Qualitätseinbussen verbunden. Wir ermuntern unsere Kunden darum, schon in einem frühen Stadium eine zentrale Strategie zu erarbeiten. Dazu muss zuallererst definiert werden, an welchen Benchmarks/Zertifikaten teilgenommen und nach welchem Reportingformat berichtet werden soll. Auf dieser Basis wird dann evaluiert, welche Daten für die entsprechenden Benchmarks/Zertifikate erforderlich sind und wie man an diese Daten gelangt.
Nun können die Datenflüsse analysiert werden: Welche sind manuell zu bewerkstelligen, welche sind bereits (teil-)automatisiert? Wo können sie automatisiert und optimiert werden?
Wie unterstützt euch Novalytica dabei?
Gemeinsam mit Novalytica haben wir eine Lösung entwickelt, die die oben genannten Datenflüsse möglichst weit automatisiert. Relevante Daten aus verschiedenen Quellen werden in eine zentrale Plattform überführt, wo sie prozessiert und auf die Qualität geprüft werden. Alle relevanten Daten sind so an einem zentralen Ort, dem Data Lake, gespeichert. Aus dieser sauber aufbereiteten Datengrundlage können dann auf Knopfdruck verschiedene Endprodukte generiert werden, zum Beispiel ein GRESB Asset Spreadsheet oder ein interaktives Analyse-Dashboard. Gemeinsam vereinen wir Expertise und Knowhow aus der Bewirtschaftung und moderne Datentechnologien, um unseren Kunden die für das ESG-Reporting notwendigen Kennzahlen mit möglichst wenig Aufwand und in hoher Qualität liefern zu können.