Die Zukunft von SmartHome-Systemen – Trends und Entwicklungen, die den Markt prägen werden

Die Ära des einfachen Smart Homes, in der man nur die Lichter per App steuert, neigt sich dem Ende zu. Die Zukunft hält deutlich komplexere und intelligentere Systeme bereit, die unseren Alltag revolutionieren werden.

1. KI und smarte Automation

Einer der größten Trends ist die Integration von künstlicher Intelligenz (KI). Bislang basieren Smart-Home-Systeme oft auf starren Regeln („Wenn Bewegung erkannt wird, schalte das Licht an“). Zukünftig werden KI-gesteuerte Systeme lernen, wie wir leben. Sie werden unsere Gewohnheiten analysieren und die Hausautomation vorausschauend anpassen. Anstatt nur auf einen Befehl zu reagieren, könnte das System schon vor deiner Heimkehr die Heizung hochfahren und die perfekte Wohlfühlatmosphäre schaffen, basierend auf deiner täglichen Routine.

2. Interoperabilität: Mehr als nur ein Standard

Das größte Hindernis für viele Nutzer ist die Fragmentierung des Marktes. Verschiedene Geräte, verschiedene Hersteller, verschiedene Apps. Die Zukunft liegt in der Interoperabilität – der Fähigkeit, Geräte unterschiedlicher Marken nahtlos miteinander zu vernügen.

Projekte wie openHAB spielen hier eine entscheidende Rolle. Als Open-Source-Plattform ermöglicht es openHAB, eine Vielzahl von Geräten und Technologien unter einem Dach zu vereinen und über eine zentrale Benutzeroberfläche zu steuern. Dieser Ansatz wird den Markt nachhaltig verändern und Nutzer von der Abhängigkeit einzelner Ökosysteme befreien.

3. Das Smart Home als Teil des Smart Grids

Energieeffizienz ist nicht länger nur ein Schlagwort. Zukünftige Smart-Home-Systeme werden aktiv mit dem Stromnetz, dem sogenannten Smart Grid, kommunizieren. Sie werden lernen, wann Strom am günstigsten ist, und energieintensive Geräte wie die Waschmaschine oder das Elektroauto dann laden. Das spart nicht nur Geld, sondern trägt auch zur Stabilität des gesamten Stromnetzes bei, indem es Spitzenlasten ausgleicht.

4. Erhöhte Sicherheit und Datenschutz

Mit der wachsenden Vernetzung wachsen auch die Bedenken bezüglich Datenschutz und Sicherheit. Die nächste Generation von Smart-Home-Systemen wird einen stärkeren Fokus auf lokale Verarbeitung von Daten legen. Statt alle Informationen in der Cloud zu speichern, werden sensible Daten direkt auf einem zentralen Gerät im Haus verarbeitet. Das minimiert das Risiko von Hackerangriffen und gibt den Nutzern mehr Kontrolle über ihre persönlichen Informationen.

Fazit

Die Entwicklungen in den Bereichen KI, Interoperabilität, Energieeffizienz und Sicherheit werden das Smart Home der Zukunft von einem reinen Gadget-Ökosystem in ein ganzheitliches, intelligentes und sicheres Wohnkonzept verwandeln. Das Potenzial ist riesig und verspricht, unseren Alltag nicht nur bequemer, sondern auch nachhaltiger zu gestalten.

Sicherheit im SmartHome – Wie du dein SmartHome-System mit openHAB vor Cyberangriffen schützt

Ein Smart Home macht den Alltag bequemer, aber mit der zunehmenden Vernetzung steigt auch das Risiko. Jedes vernetzte Gerät, jede App und jede Cloud-Anbindung kann eine potenzielle Schwachstelle sein. Für uns als Enthusiasten, die viel Zeit und Leidenschaft in unser Smart Home stecken, ist das Thema Sicherheit daher keine Nebensache, sondern essenziell.

Doch was bedeutet Smart-Home-Sicherheit eigentlich? Es geht nicht nur darum, die Haustür digital abzuschließen, sondern um einen ganzheitlichen Schutz deines gesamten Systems vor unbefugtem Zugriff. Das umfasst den Schutz deiner persönlichen Daten, die Integrität deiner Geräte und die Abwehr von Cyberangriffen, die die Funktionalität deines Smart Homes beeinträchtigen könnten. Glücklicherweise bietet ein offenes, flexibles System wie openHAB viele Möglichkeiten, die Kontrolle über deine Sicherheit selbst in die Hand zu nehmen.

Im Folgenden zeige ich dir, wie du dein Smart-Home-System robust absichern kannst.

Die 10 Gebote der Smart-Home-Sicherheit

1. Halte die externen Verbindungen minimal

Viele Smart-Home-Lösungen setzen auf externe Cloud-Server. Das ist bequem, aber es bedeutet, dass deine Daten durch das Internet reisen und du auf die Sicherheit des jeweiligen Anbieters angewiesen bist. Mit openHAB kannst du deine Smart-Home-Zentrale vollständig lokal betreiben. Verbinde nur so wenige Geräte wie möglich mit der externen Cloud und nutze stattdessen lokale Protokolle wie Zigbee, Z-Wave oder MQTT.

2. Sichere dein Netzwerk ab

Dein Heimnetzwerk (LAN/WLAN) ist die erste Verteidigungslinie. Verwende einen sicheren Router, der regelmäßig Updates erhält. Ändere das Standard-Passwort und nutze WPA3-Verschlüsselung, falls dein Router diese unterstützt. Am besten ist es, wenn du dein Smart Home in einem separaten Gastnetzwerk oder VLAN (Virtual Local Area Network) betreibst. So trennst du deine Smart-Home-Geräte von deinen Computern und Smartphones und schützt sie gegenseitig.

3. System und Geräte immer aktuell halten

Egal, wie gut dein System heute geschützt ist, neue Schwachstellen werden ständig entdeckt. Ein veraltetes System ist ein offenes Einfallstor. Aktualisiere openHAB und dein Betriebssystem regelmäßig.

4. Updates für alle Smart-Home-Geräte einspielen

Nicht nur die Zentrale, auch die einzelnen Komponenten wie Sensoren und Leuchten müssen gepflegt werden. Viele Hersteller bieten Firmware-Updates an, die Sicherheitslücken schließen. Überprüfe die Hersteller-Websites oder nutze, wenn vorhanden, Auto-Update-Funktionen in deinen Geräten, um immer auf dem neuesten Stand zu sein.

5. Backups sind nicht verhandelbar

Wenn doch einmal etwas schief geht, sei es durch einen Cyberangriff, einen Hardware-Defekt oder einen Konfigurationsfehler, ist ein aktuelles Backup dein Lebensretter. Ohne ein Backup müsstest du dein gesamtes Smart Home von Grund auf neu einrichten.

Ich kann es nicht oft genug betonen: Plane eine Backup-Strategie. Am besten nach der bewährten 3-2-1-Regel, die ich bereits in meinem Beitrag zur 3-2-1 Backup-Strategie beschrieben habe.

6. Verwende starke Passwörter

Das ist ein alter Hut, aber immer noch einer der häufigsten Fehler. Verwende einzigartige und komplexe Passwörter für deine Smart-Home-Geräte, deinen Router und openHAB. Ändere sofort alle voreingestellten Standard-Passwörter. Tools wie Passwort-Manager können dir dabei helfen.

7. Deaktiviere unnötige Funktionen

Jede aktivierte Funktion ist eine potenzielle Schwachstelle. Brauchst du den Fernzugriff auf dein Smart Home wirklich, wenn du nur selten unterwegs bist? Schalte Funktionen, die du nicht nutzt, einfach ab.

8. Achte auf die physische Sicherheit

Sicherheit beginnt nicht erst im Cyberraum. Verhindere, dass Unbefugte physischen Zugriff auf deine Smart-Home-Zentrale (z. B. einen Raspberry Pi) bekommen. Platziere sie an einem sicheren Ort.

9. Vertraue nur seriösen Herstellern

Nicht jeder Anbieter nimmt das Thema Sicherheit ernst. Recherchiere, ob der Hersteller deiner Smart-Home-Geräte regelmäßige Sicherheitsupdates anbietet und wie er mit der Privatsphäre umgeht. Ein offener Umgang mit Sicherheitsproblemen ist ein gutes Zeichen.

10. Für Bastler: Setze auf Open-Source-Software

Wenn du gerne bastelst und die volle Kontrolle haben möchtest, kannst du deine Smart-Home-Geräte (z. B. auf ESP-Basis) mit Open-Source-Firmware wie Tasmota oder ESPHome flashen. Das gibt dir maximale Kontrolle und eliminiert die Abhängigkeit von Cloud-Diensten. Dies erfordert jedoch etwas Zeit und Spaß am Tüfteln.

Fazit: Sicherheit ist Teamwork zwischen dir und openHAB

Die Sicherheit deines Smart Homes ist kein „set it and forget it“-Projekt. Es ist eine fortlaufende Aufgabe, die dein aktives Mitwirken erfordert. Indem du auf lokale Lösungen setzt, dein Netzwerk schützt und deine Systeme und Geräte regelmäßig pflegst, machst du dein Smart Home nicht nur sicherer, sondern behältst auch die volle Kontrolle. openHAB gibt dir die Werkzeuge an die Hand – es liegt an dir, sie klug zu nutzen. So wird dein vernetztes Zuhause nicht zur Bedrohung, sondern bleibt die komfortable und sichere Oase, die es sein soll.

Wie schützt du dein Smart Home?

Effiziente Energieverwaltung mit openHAB – Strom sparen durch intelligente Geräteintegration

Möchtest du in deinem Zuhause Energie sparen und dabei gleichzeitig mehr Komfort und Kontrolle gewinnen? Dann bist du hier genau richtig. In diesem Blog-Beitrag tauchen wir in das Thema der intelligenten Energieverwaltung mit openHAB (und auch jedem anderen System) ein. Es geht nicht nur darum, den Stromverbrauch zu senken, sondern auch darum, dein Smart Home so zu steuern, dass es nachhaltiger und effizienter arbeitet.

Was bedeutet Energieverwaltung im Smart Home und warum ist sie wichtig?

Bevor wir uns den Details widmen, lass uns klären, was wir unter Energieverwaltung verstehen. Es geht dabei nicht einfach nur darum, den Lichtschalter auszuschalten. Energieverwaltung im Smart Home bedeutet, den Stromverbrauch deiner Geräte und Systeme zu überwachen, zu analysieren und intelligent zu steuern. Das Ziel ist, den Verbrauch zu optimieren und an deine Bedürfnisse und externen Faktoren wie die Stromproduktion einer PV-Anlage anzupassen.

Dabei gilt es, einige wichtige Aspekte zu beachten:

  • Der eigene Verbrauch: Auch dein Smart Home selbst benötigt Strom. Der Betrieb deines openHAB-Servers, der Sensoren und anderer Komponenten muss in die Gesamtbilanz mit einfließen.
  • Datenerfassung: Ohne Daten gibt es keine Analyse. Um den Verbrauch einzelner Geräte zu verstehen und zu steuern, brauchst du zuverlässige Messwerte.
  • Automatisierung: Das Herzstück der Energieverwaltung ist die Automatisierung. Dein Smart Home soll selbstständig reagieren, zum Beispiel indem es die Waschmaschine startet, wenn die Sonne am meisten scheint.

Das Fundament: Die Messung des Stromverbrauchs

Der erste Schritt zu einer effizienten Energieverwaltung ist die zuverlässige Messung. Die staatlich verordneten intelligenten Stromzähler (iMsys), die von den Netzbetreibern wie Bayernwerk installiert werden, sind oft kompliziert in ein privates Smart-Home-System zu integrieren. Hier empfehle ich, auf eine eigene Messeinheit zu setzen.

Du kannst zum Beispiel einen Zwischenzähler oder eine intelligente Steckdose verwenden, die den Verbrauch einzelner Geräte oder Stromkreise misst. Diese Messgeräte lassen sich in der Regel sehr gut in openHAB einbinden und liefern dir die genauen Daten, die du für eine gezielte Steuerung benötigst.

Vorteile der Energieverwaltung mit openHAB

Die Integration deiner Geräte in openHAB bringt eine Vielzahl von Vorteilen mit sich:

  • Zentrale Steuerung: Alle Daten laufen an einem Ort zusammen. Du kannst den Verbrauch einzelner Geräte, ganzer Stromkreise oder deines gesamten Hauses über eine einzige Benutzeroberfläche überwachen und steuern.
  • Effiziente Nutzung erneuerbarer Energien: Hast du eine PV-Anlage oder ein Balkonkraftwerk? Mit openHAB kannst du den erzeugten Strom optimal nutzen. Dein System kann automatisch entscheiden, wann die Waschmaschine, der Geschirrspüler oder die Warmwasseraufbereitung gestartet werden, um den Eigenverbrauch zu maximieren.
  • Automatisierung von Geräten: Mit einfachen Regeln kannst du den Standby-Verbrauch reduzieren. Schalte Geräte, die nicht genutzt werden, automatisch ab. Oder starte die Heizung nur, wenn du wirklich zu Hause bist.
  • Datenanalyse: openHAB ermöglicht es dir, historische Verbrauchsdaten zu speichern und zu visualisieren. So erkennst du Verbrauchsspitzen, unerwartete Stromfresser und kannst deine Gewohnheiten anpassen.

Nachteile und Herausforderungen

Auch wenn die Möglichkeiten beeindruckend sind, gibt es auch Herausforderungen, die du kennen solltest:

  • Investitionskosten: Die Anschaffung von Messgeräten und smarten Komponenten kostet Geld. Es ist wichtig, zu überlegen, welche Lösungen sich für dein Zuhause wirklich lohnen und wann sich die Investition amortisiert.
  • Technische Komplexität: openHAB ist ein sehr mächtiges, aber auch komplexes System. Die Konfiguration kann anfangs sehr zeitaufwendig sein und erfordert ein gewisses technisches Verständnis.
  • Eingeschränkte Integration: Nicht alle Geräte lassen sich nahtlos integrieren. Unsere Wärmepumpe etwa, die für Heizung und Warmwasser zuständig ist, unterstützt die Integration in openHAB nicht direkt. Hier kannst du nur den Verbrauch über einen externen Zähler wie einen Shelly messen, aber nicht die Steuerung übernehmen.
  • Wirtschaftlichkeit bei spezifischen Lösungen: Bei manchen Systemen, wie zum Beispiel der Steuerung einer Fußbodenheizung über smarte Thermostate und Stellantriebe, ist es oft schwierig, eine wirtschaftliche Lösung zu finden. Die Anschaffungskosten können so hoch sein, dass sich eine Amortisation über die Stromersparnis kaum realisieren lässt. Hier musst du abwägen, ob die Investition eher für Komfort oder für reine Kostenersparnis getätigt wird.

Fazit

Die intelligente Energieverwaltung mit openHAB ist eine spannende und lohnende Möglichkeit, dein Zuhause effizienter und nachhaltiger zu gestalten. Auch wenn der Weg nicht immer einfach ist und einige Hürden wie die Integration bestimmter Geräte oder die Abwägung der Wirtschaftlichkeit zu nehmen sind, überwiegen die Vorteile deutlich.

Du gewinnst nicht nur mehr Kontrolle über deinen Stromverbrauch, sondern schaffst auch ein intelligentes System, das sich aktiv an deine Bedürfnisse anpasst und erneuerbare Energien optimal nutzt. Der Schlüssel zum Erfolg liegt in der sorgfältigen Planung, dem Einsatz der richtigen Messtechnik und der Bereitschaft, sich in das offene und vielseitige System von openHAB einzuarbeiten.

Fang klein an, messe den Verbrauch deiner wichtigsten Geräte und baue dein System Stück für Stück aus. Der Weg zu einem energieeffizienten Smart Home ist eine Reise, die sich lohnt.

3-2-1-Backup-Strategie – Datensicherung mit System

Ein Datenverlust kann weitreichende Folgen haben – für Unternehmen genauso wie für Privatpersonen. Ob durch Hardwaredefekte, Ransomware, Diebstahl oder schlicht menschliche Fehler: Wer auf Nummer sicher gehen möchte, braucht ein durchdachtes und praktikables Backup-Konzept. Die sogenannte 3-2-1-Backup-Strategie hat sich in der Praxis als zuverlässig und flexibel erwiesen. Sie ist einfach zu merken, leicht umzusetzen und schützt zuverlässig vor Totalverlust.

Was bedeutet 3-2-1?

Die 3-2-1-Regel ist ein etablierter Standard aus der IT-Sicherheitswelt. Sie lautet:

  • Drei Kopien deiner Daten

  • Zwei unterschiedliche Medientypen

  • Eine Kopie an einem anderen physischen Ort

Damit deckt die Strategie sowohl technische als auch physische Risiken ab – von kaputten Festplatten über Ransomware bis hin zu Feuer, Überspannung oder Diebstahl.

Drei Kopien deiner Daten

Die Basis der Strategie ist, dass du drei identische Kopien deiner wichtigen Daten aufbewahrst. Dabei gilt:

  • Eine Kopie ist dein Original – etwa auf deinem Laptop oder Desktop-PC

  • Eine zweite Kopie liegt auf einem separaten lokalen Backup-Medium, etwa einem NAS oder einer externen Festplatte

  • Eine dritte Kopie wird außerhalb des unmittelbaren Standorts gespeichert – etwa in der Cloud oder auf einem extern gelagerten Datenträger

Warum drei? Weil ein einziges Backup bei einem Defekt, einem versehentlichen Löschen oder einer Malware-Infektion möglicherweise ebenfalls verloren geht. Zwei Backups bieten eine echte Redundanz – eine dritte Version sichert dich auch bei Katastrophen wie Feuer oder Einbruch ab.

Zwei verschiedene Medientypen

Daten sollten nicht nur mehrfach, sondern auch auf unterschiedlichen Speichertypen gesichert werden. Wer ausschließlich auf externe Festplatten setzt, hat bei einem Serienfehler oder einem Stromschlag wenig Schutz.

Bewährte Kombinationen sind etwa:

  • Ein stationärer Computer + NAS (Netzwerkspeicher)

  • Laptop + externer Datenträger (SSD/HDD)

  • PC + Cloud-Lösung

Der Hintergrund ist klar: Verschiedene Medien reagieren unterschiedlich auf Risiken. Während mechanische Festplatten anfällig für Stöße sind, können SSDs bei Stromausfällen empfindlich reagieren. Cloud-Dienste hingegen sind gegen physische Schäden immun, bringen aber eigene Datenschutzrisiken mit sich.

Eine Kopie außerhalb des Standorts

Das entscheidende Element der 3-2-1-Regel ist die räumliche Trennung einer Datensicherung. Mindestens eine Kopie deiner Daten sollte außerhalb deines Hauses oder Büros gelagert werden. Das kann ein Cloud-Dienst sein – oder eine physische Festplatte, die du z. B. im Schließfach, bei Freunden oder am Arbeitsplatz sicherst.

Diese Maßnahme schützt dich vor Ereignissen, die alle lokal vorhandenen Geräte gleichzeitig betreffen könnten, wie Brand, Wasserschäden, Einbruch oder Stromschwankungen.

Praxisnahe Backup-Tools für verschiedene Zwecke

Je nach Betriebssystem und Kenntnisstand kannst du aus einer Vielzahl an Tools wählen. Einige Empfehlungen:

Für Privatanwender:

  • Veeam Agent (Windows): Kostenlos und zuverlässig für inkrementelle Backups

  • Syncthing: Synchronisiert Ordner zwischen Geräten – ideal für Live-Backups

  • FreeFileSync: Manuelle oder automatisierte Synchronisation von Verzeichnissen

  • Duplicati: Backup mit Verschlüsselung und Cloud-Integration (Google Drive, OneDrive etc.)

Für Fortgeschrittene und Unternehmen:

  • Proxmox Backup Server oder Restic für Linux-Umgebungen

  • BorgBackup für effiziente Deduplizierung

  • TrueNAS / Synology NAS mit Snapshot- und Versionierungsfunktionen

Typische Fehler bei der Datensicherung

Auch bei gut gemeinten Backup-Versuchen gibt es klassische Stolperfallen:

  1. Nur ein einziges Backup auf einem USB-Stick, der im gleichen Raum liegt – das schützt nicht vor Brand, Diebstahl oder Malware

  2. Fehlende Versionierung – wenn man unabsichtlich eine Datei löscht oder überschreibt, passiert das auch im Backup

  3. Keine Wiederherstellungstests – Backups werden oft eingerichtet, aber nie getestet. Im Ernstfall ist die Wiederherstellung dann fehlerhaft oder gar unmöglich

Deshalb gilt: Backup ist nur dann ein Backup, wenn es sich auch zuverlässig zurückspielen lässt. Plane regelmäßige Tests ein – etwa alle drei Monate eine Stichprobe oder vollständige Wiederherstellung auf einem Testgerät.

Persönliches Setup – Beispiel aus dem Alltag

In meinem Fall sieht die Umsetzung der 3-2-1-Regel so aus:

  • Meine Hauptgeräte sind mit einem NAS im Heimnetzwerk verbunden, das automatische Versionierungen vornimmt

  • Zusätzlich sichere ich wöchentlich manuell auf eine externe SSD, die nicht dauerhaft verbunden ist

  • Ein monatliches verschlüsseltes Cloud-Backup läuft über das NAS mit Ziel Microsoft Azure

Zusätzlich führe ich einmal im Jahr einen Restore-Test durch – damit ich im Notfall nicht nur theoretisch, sondern praktisch vorbereitet bin.

Fazit – Datensicherheit ist kein Zufall

Die 3-2-1-Backup-Regel ist einfach umzusetzen, aber extrem wirkungsvoll. Sie schützt zuverlässig vor den häufigsten Ursachen für Datenverlust. Wer sie konsequent anwendet, reduziert das Risiko drastisch – ohne teure Infrastruktur oder IT-Kenntnisse. Wichtig ist nur: Regelmäßig sichern. Automatisieren. Testen.

Ein sauberes Backup ist keine Kür, sondern Pflicht – sowohl privat als auch beruflich.

32-Bit-Apps auf einem 64-Bit-Smartphone laufen lassen – Meine Lösung mit VPhoneOS

Der technologische Fortschritt bringt viele Vorteile – aber manchmal auch unerwartete Probleme mit sich. Genau das habe ich erlebt, als ich mein Motorola-Smartphone durch ein modernes Google Pixel 9 Pro mit dem Google Tensor G4 Titan M2 (x64) ersetzt habe. Die Vorfreude auf mehr Performance und längeren Support wurde schnell getrübt, als eine meiner Lieblings-Apps, die Sauspiel-App, plötzlich nicht mehr startete.

Das Problem: Alte 32-Bit-App auf neuer 64-Bit-Architektur

Die Sauspiel-App, eine schon länger nicht mehr gepflegte Android-Anwendung, liegt lediglich im armeabi-v7a und x86 Format vor – also rein 32-Bit. Neue Geräte wie das Pixel 9 Pro unterstützen jedoch keine 32-Bit-Apps mehr, da Android (seit Version 13+) auf 64-Bit-only-Betriebssysteme umstellt.

Klassische Lösungsmöglichkeiten wie einfache Emulatoren oder Kompatibilitäts-Modi helfen in diesem Fall nicht – die App lässt sich schlichtweg nicht installieren oder starten.

Die Lösung: VPhoneOS

Nach einigem Recherchieren bin ich auf VPhoneOS gestoßen – eine virtuelle Android-Umgebung, die direkt auf dem Smartphone läuft. Im Grunde handelt es sich dabei um ein virtuelles Android-Gerät (ähnlich wie ein Emulator), das innerhalb deines eigentlichen Android-Systems läuft. Und das Beste: VPhoneOS unterstützt auch ältere Architekturen, darunter armeabi-v7a und x86!

Schritt-für-Schritt: So habe ich Sauspiel wieder zum Laufen gebracht

  1. VPhoneOS herunterladen
    → Direkt von der offiziellen Website: vphoneos.com

  2. VPhoneOS einrichten
    → Instanz erstellen, Sprache einstellen, Play Store optional aktivieren

  3. Sauspiel APK importieren
    → Ich habe die APK aus meinem Dateisystem importiert (kann auch von einer alten Sicherung stammen)

  4. App starten und spielen!
    → Die Sauspiel-App lief in VPhoneOS absolut problemlos – trotz 32-Bit-Architektur

Fazit

Auch wenn Androids Umstieg auf 64-Bit viele alte Apps aussperrt, gibt es mit Tools wie VPhoneOS eine sehr praxistaugliche Lösung, um ältere Software weiter zu nutzen. Besonders für spezielle oder nicht mehr gepflegte Apps wie Sauspiel ist das Gold wert. Mein Google Pixel 9 Pro hat jetzt nicht nur moderne Technik, sondern auch meine alte Lieblings-App wieder im Einsatz – und das ohne Root oder komplizierte Hacks.

Mitarbeiter-Rückmeldungen / Updates einholen, ohne zu stören: Teams Updates smart per Power Automate weiterverarbeiten

In der modernen Arbeitswelt sind effiziente Rückmeldungen von Mitarbeitern essenziell – besonders in projektorientierten Umgebungen. Microsoft Teams bietet mit der integrierten Updates‑App ein nützliches Tool, um strukturierte Abfragen zu erstellen und Informationen zentral zu sammeln. Doch was tun, wenn man diese Informationen außerhalb von Teams nutzen möchte? In diesem Beitrag zeige ich, wie man mit Hilfe von Power Automate genau das erreichen kann.

Was macht die Teams Updates‑App?

Die Updates‑App in Microsoft Teams ermöglicht es, strukturierte Anfragen an Teammitglieder zu stellen – zum Beispiel tägliche Projektstände, Check‑ins oder Fortschrittsberichte. Diese Anfragen können einmalig oder wiederkehrend (terminiert) erstellt werden, was die Organisation regelmäßiger Feedbacks deutlich vereinfacht. Die Rückmeldungen erfolgen direkt in Teams – ohne zusätzliche Tools oder Formulare.

Der Anwendungsfall: Projektstände abfragen – ohne Unterbrechung der Arbeit

Mein Ziel war es, regelmäßig Projektstände von Mitarbeitern einzuholen, ohne sie durch Meetings oder Chat‑Nachfragen in ihrem Arbeitsfluss zu stören. Die Updates‑App ist dafür ideal: Sie erinnert die Mitarbeiter automatisch und bietet ein einheitliches Format für die Antworten.

Allerdings gibt es eine Einschränkung: Die Antworten sind nur innerhalb von Teams abrufbar und nicht teilbar oder zentral exportierbar. Das macht die Weiterverarbeitung – z. B. für Projektleiter oder Management – schwierig.

Die Lösung: Power Automate

Mit Power Automate lässt sich dieses Problem umgehen. Die Plattform erlaubt es, Workflows auf Basis der eingehenden Updates zu erstellen – inklusive automatisierter Weiterleitung oder Speicherung der Inhalte. Und so funktioniert’s:

 

Schritt‑für‑Schritt‑Anleitung

  1. Erstelle einen automatisierten Cloud‑Flow in Power Automate.

  2. Verwende den Trigger:
    Updates App (Microsoft 365)
    „Wenn ich eine neue Aktualisierung erhalte, die an eine bestimmte Anfrage gebunden ist“
    → Dies ist ideal, wenn du bereits ein konkretes Update‑Formular in Teams erstellt hast

  3. Wähle die entsprechende Anforderung (z. B. Projekt‑Update „Q2 Status“) aus

  4. Verarbeite die Daten weiter, z. B.:

    • Versenden einer E‑Mail mit den Inhalten

    • Speichern der Antworten in einer SharePoint‑Liste

    • Weitergabe in eine Excel‑Tabelle oder ein Power BI Dashboard

  5. Zum Einstieg empfehle ich: Nutze die Aktion „E‑Mail senden (V2)“, um bei jeder neuen Rückmeldung automatisch eine Benachrichtigung zu erhalten

Fazit: Microsoft 365 + Power Automate = Transparenz & Effizienz

Die Kombination aus der Updates‑App in Microsoft Teams und Power Automate eröffnet neue Wege der Zusammenarbeit. Rückmeldungen werden gezielt eingeholt, ohne Mitarbeiter zu unterbrechen, und können automatisiert dorthin weitergeleitet werden, wo sie benötigt werden. Das schafft mehr Transparenz, effizientere Kommunikation und reduziert manuellen Aufwand – ein echter Gewinn für jedes Team.

Synchronisationsfehler zwischen Synology CloudSync und OneDrive: Datei mit „windows“ im Namen verhindert Abgleich

Bei meiner Fehlersuche in Verbindung mit der OneDrive-Cloudsync-App zwischen Synology CloudSync und Microsoft OneDrive bin ich auf eine eher absurde, aber reproduzierbare Ursache gestoßen: Dateien, deren Namen mit „windows“ beginnen, können die Synchronisation verhindern. Klingt komisch? Ist aber so – und nach unzähligen Tests auch eindeutig nachvollziehbar.

Fehlerbeschreibung

Wenn du mit OneDrive (in Verbindung mit Synology CloudSync) arbeitest und dir die Fehlermeldung

„Sync-Ordner existiert nicht“
begegnet, dann könnte der Grund dafür nicht ein fehlender Ordner, sondern eine einzelne Datei mit dem Präfix „windows“ sein.

Dabei spielt der Dateityp keine Rolle, ob .txt, .pdf, .docx, etc. -, der reine Dateiname reicht aus, um das Problem auszulösen. Wichtig: Nur die Pluralform „windows“, nicht „window“!

Analyse & Testaufbau

Ich bin der Sache auf den Grund gegangen – hier mein Vorgehen:

  1. Testumgebung auf NAS erstellt
    Ich habe sukzessive einzelne Dateien in einen Testordner auf meiner NAS geladen und diesen via CloudSync mit OneDrive synchronisiert.

  2. Zuverlässige Reproduktion
    Eine Datei mit dem Namen windowsticker.pdf verursachte jedes Mal den Fehler. Auch andere Namen wie windows123.txt, windows_notes.docx, etc. führten zum exakt gleichen Fehlerbild.

  3. Renaming = Lösung
    Sobald ich die Datei umbenannte, beispielsweise in sticker.pdf oder win-sticker.pdf, war der Fehler komplett verschwunden – und die Synchronisation lief fehlerfrei durch.

  4. Verallgemeinerung
    Ich habe das über 50 Mal mit unterschiedlichsten Dateien getestet. Ergebnis:

    • Dateien mit „windows“ am Anfang = Problem

    • Dateien mit „window“ oder andere Begriffe = kein Problem

    • Ordner mit dem Namen „windows“ = kein Problem

  5. Logs durchforstet
    Auch in den CloudSync-Fehlerlogs ließ sich ein Muster erkennen: Alle problematischen Ordner enthielten mindestens eine Datei, deren Name mit „windows“ begann.

Mögliche Ursache

Das Verhalten lässt sich nur schwer erklären, aber es gibt eine plausible Vermutung:

  • Microsoft verwendet intern viele reservierte Begriffe (z. B. „CON“, „AUX“, „NUL“, etc.), die unter bestimmten Bedingungen Konflikte mit Dateisystemen verursachen können

  • Möglicherweise ist „windows“ als präfixbasierter interner Bezeichner innerhalb von OneDrive oder Windows reserviert – oder wird fälschlich als systeminterne Referenz interpretiert

  • Ob das Problem in OneDrive selbst, Windows, Synologys CloudSync oder einer Kombination liegt, ist unklar. Ein Bugreport bei Microsoft oder Synology wäre wohl angebracht.

Empfehlung

Wenn du auf die Fehlermeldung

„Sync folder does not exist“
stößt und du OneDrive + CloudSync nutzt:

Durchsuche deine Ordner nach Dateien, deren Name mit „windows“ beginnt.

  • Benenne diese Dateien um, z. B. zu win_*.pdf, docs_*.txt, etc.

  • Führe die Synchronisation erneut durch

  • Problem sollte sofort behoben sein

Fazit

Ein kleines Detail wie ein einzelner Dateiname kann ganze Synchronisationsprozesse lahmlegen – besonders in Microsoft-Ökosystemen keine Seltenheit.

Ob Microsoft oder Synology diesen Bug auf dem Schirm haben, ist fraglich – aber mit diesem Fix kannst du dir viel Ärger und Support-Zeit sparen.

Adidas Running JSON-Daten mit PowerShell analysieren – Laufdaten & Equipment synchronisieren

Ich nutze mehrere Plattformen, um meine Laufdaten zu tracken: Garmin Connect, Strava und Adidas Running (ehem. Runtastic). Dabei lege ich großen Wert darauf, dass meine Laufschuhe korrekt zugeordnet sind – denn über die gelaufenen Kilometer entscheide ich, wann ein Paar ausgetauscht wird.

Während Garmin Connect als Quelle zuverlässig alle Informationen enthält und Strava mir sogar die einzelnen Läufe pro Schuh anzeigt, macht es Adidas Running etwas schwieriger: Hier sehe ich nur die Gesamtkilometer pro Schuh, aber nicht, welche Einheit welchem Schuh zugeordnet wurde. Genau das wollte ich bereinigen.

Der Weg zur Analyse – Adidas Running Datenexport

Über die Kontoeinstellungen bei Adidas Running kann man einen kompletten JSON-Export seiner Daten anfordern. Dieser enthält u. a. zwei wichtige Verzeichnisse:

  • \User\Shoes\…json → alle angelegten Schuhe

  • \Sport-sessions\…json → alle getrackten Läufe

Mein Ziel war es nun, herauszufinden, welche Laufeinheit welchem Schuh zugeordnet ist – und dafür wurde mir, mit Hilfe eines Kollegen, ein kleines PowerShell-Script geschrieben.

Ziel des PowerShell-Scripts

Das Script erfüllt folgende Aufgaben:

  1. Lesen der Ziel-Schuh-ID aus einer gewählten Schuh-JSON-Datei

  2. Durchsuchen aller Laufeinheiten (ca. 1.500 Dateien) nach dieser Schuh-ID

  3. Wenn ein Treffer gefunden wird:

    • Zeitstempel („start_time“) lesen und in lesbares Datum umrechnen

    • Dateiname und Datum protokollieren

Beispieldateien aus dem Export

  • Schuh:
    \User\Shoes\2023-10-28_11-47-38-UTC_653cf4da91b1b08b92fedf1f.json

  • Lauf:
    \Sport-sessions\2025-02-18_17-34-41-UTC_3e415133-709f-4377-a4cc-4338655d7254.json

PowerShell-Script zur Analyse

if(!([Security.Principal.WindowsPrincipal] [Security.Principal.WindowsIdentity]::GetCurrent()).IsInRole([Security.Principal.WindowsBuiltInRole] 'Administrator')) {
  Start-Process -FilePath PowerShell.exe -Verb Runas -ArgumentList "-File `"$($MyInvocation.MyCommand.Path)`" `"$($MyInvocation.MyCommand.UnboundArguments)`""
  Exit
}

$path = "D:\20250218_Runtastic_export-20250218-000"
$logPath = "$path\logs"
$homeFile = $path + "\User\Shoes\2023-10-28_11-47-38-UTC_653cf4da91b1b08b92fedf1f.json"
$itemsToParse = Get-ChildItem "$path\Sport-sessions"
$execDate = Get-Date -Format "yyyyMMdd_HHmmss"
$logName = "Log_" + $execDate + '.txt'
$log = "$logPath\$logName"
New-Item $log | out-null

function Write-Log {
  param ([string]$logString)
  $timeStamp = Get-Date -Format "yyyy.MM.dd-HH:mm:ss"
  Add-Content $log -Value "$timeStamp : $logString"
}

$homeJSON = Get-Content $homeFile -Raw | ConvertFrom-Json
$idToCheck = $homeJSON.id.ToString().Trim()
Write-Log "checking files for ID: $idToCheck"

foreach ($item in $itemsToParse) {
  if ($item -like '*.json') {
    $itemJSON = Get-Content $item.PSPath -Raw | ConvertFrom-Json
    $item_ue_id_raw = $itemJSON.features | Where {$_.Type -eq 'equipment'} | Select -ExpandProperty attributes | Select -ExpandProperty user_equipment | Select -Property id | Out-String
    $item_ue_id_array = $item_ue_id_raw.Split("--")
    $item_ue_id = $item_ue_id_array[2].Trim().ToString()
    if ($idToCheck -eq $item_ue_id) {
      $unixTimeStamp = $itemJSON.start_time
      $timeStamp = (Get-Date 01.01.1970).AddMilliseconds($unixTimeStamp)
      Write-Log "---Match found!---"
      Write-Log "File : $item"
      Write-Log "Start Time: $(($timeStamp).ToString("yyyy/MM/dd-HH:mm:ss"))"
      Write-Log "UE_ID : $item_ue_id"
    }
  }
}
Write-Host "Finished!"
Read-Host -Prompt "`nPress Enter to exit"

Hinweis zu Berechtigungen

Da PowerShell je nach System restriktiv ist, kann es nötig sein, höhere Rechte zu aktivieren:

Set-ExecutionPolicy Unrestricted

Alternativ: PowerShell als Admin starten und folgende Befehle nutzen:

Get-ExecutionPolicy
Set-ExecutionPolicy RemoteSigned

Fazit

Mit diesem kleinen PowerShell-Script konnte ich meinen sehr spezifischen Anwendungsfall schnell und zielgerichtet lösen: Ich weiß jetzt exakt, welche Laufeinheit welchem Schuh zugeordnet ist – auch rückwirkend. Es gibt sicher noch viele weitere spannende Möglichkeiten zur Analyse der Adidas Running-Daten. Das JSON-Format gibt einiges her – man muss es nur nutzen.

Erweiterung: Power Automate – Kalender trifft OneNote

Im ursprünglichen Artikel von 2022 habe ich einen Power Automate Flow vorgestellt, der Kalendereinträge in OneNote-Seiten überträgt. Damals war der Flow noch relativ statisch – heute zeige ich dir eine überarbeitete, deutlich flexiblere Version, bei der zentrale Parameter einfach anpassbar sind und die sich dadurch besser für die Praxis eignet.

Neuer Ablauf im Überblick

Der Flow besteht aus mehreren logisch aufeinander aufbauenden Schritten. Die Konfiguration erfolgt weitgehend über ein einziges JSON-Objekt, das zentral gepflegt wird. Dadurch ist die Anpassung des Flows künftig deutlich einfacher.

1. Manueller Start des Flows

Der Flow wird wie gewohnt manuell über Power Automate gestartet. Ideal für den täglichen Einsatz, wenn die Einträge einmal pro Jahr erstellt werden.

2. Initialisierung von Parametern

Zunächst werden die zentralen Parameter über eine JSON-Variable definiert. Alle folgenden Variablen sind in diesem Objekt enthalten:

  • Meeting_xxx: Einstellungen und Filter für den Kalendereintrag

  • OneNote_xxx: Konfiguration des OneNote-Ziels

    • Notizbuch: muss der Link sein

    • Abschnitt: Anzeigename

Hinweis: Diese Parameter sind bei Bedarf individuell anpassbar, der Flow benötigt keine Hardcodierung mehr.

3. Initialisierung einer Hilfsvariablen

Eine zusätzliche Hilfsvariable wird eingerichtet – rein zur internen Logik, ohne Eingriffsmöglichkeit.

4. OneNote-Abschnitte abrufen

Der Flow ruft anhand der angegebenen OneNote-Parameter die verfügbaren Abschnitte des Notizbuchs ab. Dies ist erforderlich, um dynamisch mit den Parametern zu arbeiten und den Zielabschnitt zu identifizieren.

5. Kalendereinträge abrufen

Hier wird die Kalenderansicht (V3) verwendet. Es werden alle relevanten Termine im angegebenen Zeitraum selektiert, basierend auf den zuvor gesetzten Parametern.

6. Schleife über Kalendereinträge

In einer Apply to each-Aktion wird jeder gefundene Kalendereintrag verarbeitet.

7. Schleife über OneNote-Abschnitte

Parallel dazu werden die in OneNote vorhandenen Abschnitte iteriert. In der Praxis handelt es sich meist um einen einzigen Zielabschnitt.

8. Prüfung auf Eindeutigkeit

Eine Bedingung prüft, ob genau ein passender Abschnitt vorhanden ist. Diese Logik verhindert Fehlzuweisungen.

9. JSON analysieren

Aus der Rückmeldung des OneNote-Konnektors wird die pagesUrl extrahiert. Diese ist notwendig, um die neue Seite korrekt abzulegen.

10. Festlegen der pagesUrl

Die Hilfsvariable wird mit der pagesUrl befüllt und vorbereitet für die Seitenerstellung.

11. Erstellen der OneNote-Seite

Die Seite wird jetzt im definierten Abschnitt erstellt – inklusive Inhalten aus dem Kalendereintrag (z. B. Betreff, Teilnehmer, Agenda, etc.).

⚠️ Wichtig: Das funktioniert nur im klassischen Designer von Power Automate. Der neue Designer unterstützt die Erstellung von OneNote-Seiten derzeit nicht korrekt.

Fazit

Mit dieser Version ist der Flow nicht mehr auf fest kodierte Werte angewiesen. Er ist universell einsetzbar und lässt sich über eine zentrale JSON-Variable anpassen. Das macht die Pflege einfacher – und erlaubt den Einsatz für verschiedene Kalender- und Notizbuchkombinationen.

Der Mehrwert gegenüber der Version von 2022 liegt klar in der Flexibilität und Wiederverwendbarkeit.

Paperless-ngx als privates Dokumentenmanagementsystem: Meine ersten Erfahrungen

In den letzten Jahren habe ich intensiv daran gearbeitet, alle meine Medien – von Fotoalben über CDs, DVDs und Blu-rays bis hin zu Papierdokumenten – zu digitalisieren und strukturiert auf meinem Synology NAS (DS1817+) abzulegen. Neben der reinen Archivierung habe ich auch ein zuverlässiges Backup-System aufgebaut, das sowohl externe USB-Festplatten als auch einen verschlüsselten Cloud-Speicher umfasst.

Der nächste Schritt war nun, die Suche und den Zugriff auf meine digitalen Dokumente weiter zu verbessern und den Komfort zu optimieren. Dabei fiel meine Wahl auf paperless-ngx, ein leistungsfähiges und Open-Source-basiertes Dokumentenmanagementsystem (DMS).

Warum paperless-ngx?

Paperless-ngx bietet alle Funktionen, die ich mir von einem privaten DMS wünsche:

  • Automatische Texterkennung (OCR): Perfekt, um digitalisierte Dokumente durchsuchbar zu machen
  • Einfache Verwaltung: Intuitive Benutzeroberfläche, die sich an persönliche Workflows anpassen lässt
  • Open Source: Kostenlos und mit aktiver Community für regelmäßige Updates
  • Systemvoraussetzungen: Paperless-ngx läuft auf Docker, was sich problemlos auf meinem NAS integrieren lässt

Für mich erfüllt paperless-ngx die ideale Kombination aus Funktionsumfang, Preis und technischer Machbarkeit.

Betrieb: Lokal oder extern?

Bevor ich mich für die finale Installation entschieden habe, habe ich verschiedene Optionen geprüft, paperless-ngx zu betreiben:

  1. Externer Hoster
    • Vorteile:
      • Hohe Verfügbarkeit und Zugänglichkeit, unabhängig vom Standort
      • Kein zusätzlicher Energieverbrauch oder Wartungsaufwand
    • Nachteile:
      • Viele Hoster unterstützen die benötigte Docker-Umgebung nicht
      • Zugriff auf lokale Geräte wie Scanner oder lokale Datenablagen kann problematisch sein
  2. Lokale Installation auf meinem NAS
    • Vorteile:
      • Volle Kontrolle über das System
      • Direkte Integration mit vorhandenen Geräten und Daten
    • Nachteile:
      • Höherer Energieverbrauch, da das NAS dauerhaft laufen muss

Nach gründlicher Abwägung habe ich mich für die lokale Installation entschieden, da der externe Hoster nicht die notwendigen Voraussetzungen (Docker-Support) erfüllt hat und lokale Scanner besser eingebunden werden können.

Fazit

Paperless-ngx hat sich für bis jetzt als eine hervorragende Lösung dargestellt, um digitalen Dokumente effizienter zu verwalten und den Komfort im Umgang mit Daten zu verbessern. Dank der lokalen Installation auf meinem NAS habe ich volle Kontrolle über das System und die Daten – ein entscheidender Vorteil für mich.

Für jeden, der ein privates, leistungsfähiges und zugleich kostengünstiges DMS sucht, kann ich paperless-ngx nur empfehlen. Die Kombination aus Open Source, Flexibilität und einfacher Integration macht es zur idealen Wahl für alle, die ihre Dokumente effizient und strukturiert verwalten möchten.