Über uns Karriere 040 507 537 33

Forschung & Entwicklung

LIFEBONUS App mit integrierter 2,5-D Bewegungsanalyse
Hamburg, 16.06.2021

Forschungs- und Entwicklungsprojekt „LIFEBONUS App mit integrierter 2,5-D Bewegungsanalyse“

Problemstellung aus Nutzer-/Kundensicht

Jobbedingte Muskel-Skelett-Erkrankungen nehmen zu:

  • Mehr als 2 Mrd. gewerbliche Arbeiter weltweit, davon ca. 13 Millionen in Deutschland, leiden unter jobbedingten, schmerzhaften Muskel-Skelett-Beschwerden (MSE) - weil sie sich falsch bewegen.
  • MSE sind für ca. 25% der Fehltage verantwortlich (40% im gewerblichen Bereich). Im Alter nehmen MSE zu und dauern länger. Die Überalterung der arbeitenden Bevölkerung in der westlichen Welt und China ist da, wächst weiter und wird zu dramatischen Anstiegen von jobbedingten MSE führen.
  • Arbeitgeber und Sozialsystem weltweit haben jährlich steigende Kosten durch MSE, alleine in Deutschland führen MSE aktuell zu jährlichen Ausfällen einer Bruttowertschöpfung i.H.v. 34 Mrd. €.

Problem: Den Betroffenen fehlen oft Kenntnis, Motivation und wirksame, nachhaltige und wirtschaftliche Lösungsvorgehen, um Schmerzen zu verhindern bzw. zu reduzieren:

  • Der überwiegende Teil der Arbeiter und deren Arbeitgeber wissen nicht, welche Belastungen ihre tägliche Arbeit für den Muskel-Skelett-Apparat bedeutet.
  • Eine große Mehrheit der gewerblichen Arbeiter haben bisher keine intrinsische Motivation zu gesundheitsbewusstem Verhalten und Training.
  • Am Markt gibt es keine wirksamen, jobspezifischen und in den Arbeitsalltag integrierbaren digitalen Präventions- und Therapieprogramme für MSE, die von Betroffenen regelmäßig genutzt werden.
  • Existierende BGF Programme werden ausnahmslos von Gesundheits- oder Trainingsexperten durchgeführt, weil die eigenständige Durchführung der Programme durch Arbeitnehmer (=Laien) zu kompliziert ist bzw. nicht auf deren Nutzerbedürfnisse und -kompetenzen angepasst wurde. Am Markt gibt es nicht einmal ansatzweise ausreichend Experten, um flächendeckend BGF Programme in Unternehmen umzusetzen, und die vorhandenen Experten sind viel zu teuer, um selbst großen Arbeitgebern ein wirtschaftlich vertretbares Angebot an BGF-Programmen in ihren Unternehmen zu ermöglichen. 

LIFEBONUS Engagement Platform und App als Lösung

Die von LIFEBONUS mit dem geplanten Forschungs- und Entwicklungsprojekt angestrebte Innovation liegt zum einen in der Entwicklung, Programmierung und Anwendung der weltweit ersten 2,5-D Bewegungsanalyse, die vollautomatisiert über eine Smartphone-Kamera läuft und jobspezifische Bewegungen erkennt und bewertet. Die Bewegungsanalyse an sich findet auf der „LIFEBONUS Engagement Platform“ statt, (= einer Datenmaschine im Back End) und ist in verschiedenen LIFEBONUS Apps nutzbar. Sie gibt dem User Aussagen zur Ausführungsqualität der in der Arbeit stattfindenden, belastenden Bewegungen, inklusive direktem und individuellem Feedback zu Verbesserungsbedarf und Tutorials zum Trainingsvorgehen. Die LIFEBONUS Engagement Plattform an sich sowie die LIFEBONUS Apps sind weitere Innovation, denn sie ermöglichen weltweit erstmalig arbeitsplatznahes, jobspezifisches Gesundheitstraining in individualisierter sowie orts- und zeitunabhängiger Form.

Die LIFEBONUS Engagement Platform und die Apps bieten:

  • Schmerzverhinderung oder -linderung durch Automatisierung von jobspezifischer, belastungsarmer Bewegungsausführung.
  • Im Markt unerreicht hohe Teilnahmequoten durch ein Paket aus gesetzlich gestützter Verpflichtung plus monetärer und emotionaler Incentivierung:
    1. Die JOBSIMULATOR Programme sind – was einzigartig ist – entweder der klassischen Betrieblichen Gesundheitsförderung (...BGF, die für Arbeitnehmer freiwillig ist) oder dem personenbezogenen Arbeitsschutz (... der für Arbeitnehmer verpflichtend ist) zuzuordnen. Health Coaches (Erläuterung siehe unten) werden unter anderem in der Durchführung von UVV-Maßnahmen geschult, so dass die verpflichtende Teilnahme an den JOBSIMULATOR Schulung und Trainings auch arbeitsorganisatorisch nachgehalten werden kann.
    2. „Engagement Tools“ motivieren den Arbeitnehmer zur regelmäßigen und korrekten Nutzung der App bzw. der Durchführung der über die App abrufbaren Programme. Solche Tools wie Motivations-Botschaften, Reminder, Auszeichnungen bei Erreichen bestimmter Levels etc. sind in anderen Bereichen wie z.B. Online Gaming lange etabliert und werden von dort entsprechend adaptiert und übernommen. Im Gesundheitsmarkt inkl. Digital Health finden diese Tools bisher kaum Anwendung.
  • Geringe Nutzungsgebühren für Arbeitgeber und / oder User, wodurch Teilnahme- bzw. Onboarding-Hürden abgebaut werden.
    1. Die JOBSIMULATOR Programme sind so konzipiert, dass deren Durchführung keine Begleitung durch vor Ort vorhandenen externe Trainings- und Gesundheitsexperten bedarf. Vielmehr bildet LIFEBONUS in seiner Academy innerbetriebliche Arbeitnehmer des Arbeitgebers zu sogenannten „Health Coaches“ aus. Diese werden über einen 5-tägigen Kurs in die Lage versetzt ihre Kollegen bei der Umsetzung der JOBSIMULATOR Programme zu unterstützen. Die Health Coaches wiederum selber werden durch LIFEBONUS Experten im Hintergrund begleitet und unterstützt. Dieses System führt zu einer enormen Kostenreduktion auf Seiten des Arbeitgebers, zu Steigerung der Eigenverantwortung und Selbstbestimmtheit von Arbeitnehmern und macht ein Unternehmen bei der Durchführung von JOBSIMULATOR Programmen von Externen unabhängig.

Die für die Bewegungsanalyse notwendigen Videoaufnahmen werden eigenständig vom Nutzer über die Smartphone-Kamera durchgeführt und über die Engagement Platform automatisiert ausgewertet.

Für User*innen ist es grundsätzlich egal wo das Handy steht (auf dem Boden, auf einem Tisch, auf dem Fensterbrett, ...). Einzige „harte“ Anforderung ist, dass der/die User*in vollständig im Bild sein muss. Die App teilt der/dem User*in via Text/Bild mit, wie die Kamera bei einer bestimmten Bewegung zu ihr/ihm stehen soll. Macht sie/er dies falsch, wird sie/er über die App darauf hingewiesen. Die Kamera nimmt dann einen großen Bildausschnitt auf, verwendet aber nur einen kleinen. Dadurch ist sichergestellt, dass eine Gesamtbewegung erfasst wird, auch wenn der User nicht statisch an einem Ort arbeitet. Der User erfährt durch akustische Signale, bzw. Sprachtext, ob er richtig im Bild steht oder nicht. Das Frustrationspotential ist gering, weil die Software schon mit mittelmäßigen Positionierungen „zufrieden“ ist. Eine zweite Person ist nicht erforderlich!

Die analoge Vorstufe der geplanten Innovation kann im Rahmen des JOBSIMULATOR-Modellprojekt am Hamburg Airport für die Jobgruppen „Flugzeuglader“, „Flugzeugreiniger“ und „Busfahrer“ begutachtet werden. 


Flugzeugabfertiger beim Training des belastungsarmen Handling von Koffern im simulierten Flugzeugbauch

Bewegungsanalysen werden hier über ein festes Kamerasystem vorgenommen, das eine detaillierte Analyse der jobspezifischen Bewegungen ermöglicht. In Verbindung mit einem tätigkeitspezifischen Schulungskonzept lassen sich hiermit signifikante Verbesserung der Bewegungsqualität erzielen. Bei dem derzeit verfügbaren, ortsgebundenen Kamerasystem aus insgesamt 8 Kameras zeigen sich allerdings signifikante Anwendungseinschränkungen, wie die fehlende Portabilität und die benötigte Expertenbedienung. 


Bewegungsanalyse über 8 installierte Kameras und „simi-shape“ Software

Um Arbeitnehmern in ganz Deutschland Zugang zu den JOBSIMULATOR – Programmen zu ermöglichen, müssen Analyse und Feedback automatisiert über das Smartphone (aus Sicht des Users, tatsächlich aber über die Engagement Platform) möglich sein und von „Jedermann“ bedient werden können. Der User kann somit zu jeder gewünschten Zeit und an jedem Ort Auskunft über seine Bewegungsausführung erhalten und Feedback anfordern. Die Software erkennt z.B. ob der User mit Front oder Rücken zur Kamera steht. Soweit es für die Analyse der spezifischen Bewegung wichtig ist wird der User in der Anleitung darauf hingewiesen, dass er die 180 Grad Drehung mit der Körperfront zur Kamera durchführt.

Mit Hilfe der von LIFEBONUS geplanten Innovation der Analyse und des Trainings über eine App im Smartphone ist das Prinzip der Bewegungsanalyse und -korrektur praktisch allen Erwerbstätigen in Deutschland zugänglich. Dies wird zu einer signifikanten Reduktion von Muskel-Skelett-Beschwerden und -Erkrankungen führen, und kann Arbeitgebern und Sozialversicherungsträger potentiell Milliarden an Kosten ersparen. LIFEBONUS ist der erste Anbieter, der sich auf berufliche Bewegungsabläufe, vor allem in physisch belasteten Berufen konzentriert, und der diese digitalisiert.

  1. Technischer Lösungsansatz

    1. Technologisch-wissenschaftlicher und methodischer Ansatz

Die Basis des technischen Lösungsansatzes liegt in der arbeitswissenschaftlich- und medizinisch- basierten Festlegung von Normbewegungen. Diese ergeben sich aus DIN-Normen und anderen Vorgaben der Unfallversicherungsträger zur Einordnung/Bewertung von Bewegungen nach Haltung, Gewicht, Zeitdauer, sowie aus den Rahmenbedingungen in denen Jobbewegungen am Arbeitsplatz ausführbar sind. Normbewegungen beschreiben die Winkelbereiche verschiedener Körperteile an sich bzw. zueinander. In Kombination mit den zu bewegenden Lasten ergeben sich daraus verschiedene Belastungs-/Gefährdungsklassen.

Beispiel: Beim Greifen eines Koffers werden die Winkelbereiche des linken Schultergelenks festgelegt (hier mit hypothetischen Zahlen, nur zur Veranschaulichung)

Grün = gewünschter Winkelbereich = 0° - 15°

Gelb = ungünstiger, aber noch akzeptabler Winkelbereich = 16° - 30° 

Rot = gesundheitlich schädlicher, nicht akzeptabler Winkelbereich = über 30°


Screenshots einer ersten Testanalyse einer Teilbewegung in der Gepäckverladung. Winkeldaten und Verlässlichkeitsscore noch nicht korrekt, 2.5-D noch nicht enthalten

Wichtig ist hier, dass bei der Festlegung der Normbewegungen berücksichtigt werden muss, in welchen durch den Arbeitsplatz oder die Arbeitssituation vorgegebenen Rahmenbedingungen die Bewegungsausführung stattfindet. Denn dies kann die Erreichbarkeit einer ergonomisch gewünschten Bewegungsausführung unter Umständen signifikant beschränken und dazu führen, dass sogar Winkelbereiche im gelben oder roten Bereich als „gewünschte“ Normbewegungen festgelegt werden.

Beispiel: Bei der Verladung von Koffern im Flugzeugbauch ist die niedrige Deckenhöhe des jeweiligen Flugzeugtyps ein beschränkender, nicht veränderbarer Faktor. Die Deckenhöhe führt dazu, dass sich der Lader nicht ergonomisch korrekt aufrichten kann, um das Umsetzen von Koffern möglichst geringer Belastung auf seine Lenden- oder Halswirbelsäule durchzuführen. Die mögliche und damit gewünschte und zu trainierende Normbewegung muss das berücksichtigen, d.h. sie wird eine höhere Belastung auf die Wirbelsäule akzeptieren müssen als wenn die gleiche Bewegung ohne die Einschränkung durch eine niedrige Deckenhöhe durchgeführt werden würde.

Die Normbewegungen werden unter der Federführung des Kooperationspartners Hochschule für Angewandte Wissenschaften HAW Hamburg, Department Arbeitswissenschaften gemeinsam erarbeitet, festgelegt und überprüft. Dies findet in folgenden Schritten (Arbeitspaketen) statt:

  1. Prüfen der Datenbasis

Ein Expertenteam von HAW und LIFEBONUS verifiziert bzw. korrigiert die jeweilige jobspezifische Belastungsanalyse von LIFEBONUS. Am Ende dieses Prozesses steht eine Belastungsanalyse, die dem für den betreffenden Beruf verantwortlichen Unfallversicherungsträgern zur Prüfung und „Zertifizierung“ vorgelegt wird. Denn nur wenn der Unfallversicherungsträger die Belastungen als „korrekt erfasst“ anerkennt können daraus ebenfalls anerkennungsfähige Normbewegungen und später Trainingsprogramme erstellt werden.

  1. Erfassen und Vermessen der Bewegungen

Auf Basis anerkannter Messmethoden (z.B. Leitmerkmalmethode) testet, prüft und entscheidet welche belastungsarmen Normbewegungen / Normwinkel für Teilbewegungen mit Blick auf die durchschnittliche Arbeitssituation bzw. einen normalen Arbeitsplatz möglich sind und schreibt diese fest. Die HAW erstellt „Winkel-Matrices“ für Körperregionen / Körperteile, aufgebaut in einer „grün-gelb-rot“ – Klassifizierung, die LIFEBONUS zur Programmierung der Algorithmen übergeben werden. 

  1. Filmen von „Normvideos“

Die HAW erstellt Videos in denen Probanden die Normbewegungen korrekt bzw. in festgelegten Abweichungen der korrekten Bewegungsausführung durchführen („Normvideos“). Die HAW erstellt dazu eine „grün-gelb-rot“-Klassifizierung, die in der LIFEBONUS – Bewegungsanalyse als Basis für die Bewertung der eingereichten User-Videos dienen. In der LIFEBONUS Software werden diese Normwinkel dann in Sollkurven der Bewegungen übersetzt, und zwar für 6-10 Körperpunkte wie Füße, Knie, Hüften etc. 

  1. Überprüfen 

Die HAW überprüft die von LIFEBONUS in der Datenmaschine mit Winkel-Metrics versehenen Norm-Videos auf die korrekte Berechnung und Wiedergabe der Winkel-Metrics. Dies geschieht durch Beobachtungen und Berechnungen. Die von der HAW erarbeiteten Bewertungen werden an LIFEBONUS zurückgespielt, so dass LIFEBONUS das neuronale Netz besser trainieren kann. Das ganze ist als iterativer Prozess zu verstehen, an dessen Ende arbeitswissenschaftlich-medizinisch korrekte Auswertungen von Bewegungsanalysen stehen, die automatisiert durchgeführt werden und autonom Ergebnisse liefern.

Auf der Ebene LIFEBONUS werden die eingereichten User-Videos in der ersten Phase des Projekts, also beim Aufbau der Entwicklung von Software / Algorithmus, von LIFEBONUS Experten bewertet und mit entsprechenden Winkel-Metrics versehen.

Erst wenn die Datenbanken im Hintergrund genügend Jobs und deren (Teil-)Bewegungen archiviert haben, und wenn die Algorithmen bzw. das neuronale Netz sicher genug ist um Bewegungen unter Berücksichtigung der individuellen Gesundheitsangaben (z.B. Prüfung von Kontraindikationen aufgrund von Gesundheitseinschränkungen) zu bewerten und daraus die passenden hinterlegten standardisierten Übungsprogramme zu einem Job/User vorzugeben, kann es zu einer automatischen Auswertung von Videos und daraus folgenden automatischen Zusammenstellung von Trainingsübungen kommen. Dis dahin beobachten und korrigieren LIFEBONUS Trainingsexperten die KI-basierten Auswertungen solange bis die Fehlerquote auf ein vertretbares Minimum gesunken ist.

Die mit diesem Prozess und dem Zielergebnis zusammenhängenden Herausforderungen sind im Kapitel 1.3.4 beschrieben.

Um das neuronale Netz schon aber der ersten Phase des Projekts trainieren zu können werden von der Software sofort --- parallel zur analogen Expertenbewertung -- automatisierte Bewertung der Bewegungen vorgenommen. Deren Richtigkeit/Genauigkeit wird von den Experten bewertet und in die Software eingegeben. Dieser Prozess läuft wie folgt ab:

  • Der LIFEBONUS Experte überprüft die von der Software vorgenommene automatische Auswertung
    1. Der Experte korrigiert die Auswertung, falls erforderlich
    2. Der Experte bewertet die Auswertungsqualität der Software und spielt diese Bewertung ins System ein, damit dieses lernen kann
    3. Der Experte passt bei Bedarf das Trainings- und Schulungskonzept an
    4. Das System lernt dadurch:
      • Meine Bewertung war richtig
      • Meine Bewertung war falsch
      • Wie muss die Auswertung bei welchen Ergebnissen angepasst werden
  • Der Experte gibt die Analyse und Handlungsempfehlungen frei
  • Die Ergebnisse werden an den User Versand

So verbessert sich die Auswertungsfähigkeit der Software laufend, bis die Umstellung auf eine komplett automatisierte Auswertung vertretbar ist, ohne Experten beizuziehen (für Stichproben weiterhin). 

Auf der Ebene der User läuft der Prozess wie folgt ab: Der User sendet sein in der App selbst aufgenommenes Video an LIFEBONUS und erhält dann (in der Testphase innerhalb 48 Stunden) ein detailliertes Feedback. Mit entsprechenden Fortschritten im Projekt wird das Video komplett automatisiert in Echtzeit ausgewertet, d.h. das Feedback ist sofort nach Abschluss verfügbar. Der User sieht seine nominelle Abweichung von der Normbewegung, und erhält spezifische Trainingshinweise und -übungen zur Verbesserung der Bewegungsqualität. Dieses Feedback kann, je nach Präferenz des Users bzw. nach Art des Fehlers in der Bewegungsausführung, auf verschiedene Art erfolgen: Schriftlicher Text im Video / Gesprochener Text zum Video /Grün-Gelb-Rot Einfärbung der Bewegungsausführung.

Beispiel: Das Video wird kurz angehalten -- es erscheint ein roter Kreis um die Schulter -- Text mit Info was falsch war

Diese Botschaften kommen in vorprogrammierter, automatisierter Form. Grundsätzlich kann das Feedback aus den Daten auf unzählige Weisen dargestellt werden - die beste Art und Weise wird mit User-Tests evaluiert werden.

Die Bewegungsanalysen und -statistiken eines Users werden ebenso wie dessen Videos – und Berücksichtigung aller datenschutzrechtlichen Vorgaben -- gespeichert. Der User kann dann zwei Bewegungen übereinanderlegen („Layover“), oder sein Bewegungsanalyse-Video und das Video einer entsprechenden Normbewegung nebeneinander („Split Screen“) betrachten. In beiden Fällen erkennt er ob/wie sich seine Bewegungsqualität verbessert hat, bzw. wo er Verbesserungsbedarf hat. Es gibt eine Statistik- und Archivfunktion über ein Dashboard, über die er sein Videoarchiv abrufen kann. Durch die gespeicherten Daten kann jede Bewegung individuell mit der Norm-Bewegung verglichen und visuell dargestellt werden.

Im technischen Kern des Projekts geht es um die Weiterentwicklung der Erkennung von Bildern aus Videodateien, die über eine (einzige) Smartphone-Kamera erhoben wurden, und einer Bewertung der erkannten Bilder in Bezug auf die Bewegungsqualität. Die technische Lösung zur Ermöglichung einer korrekten Bewegungsanalyse einer jobspezifischen Bewegung, die der User nur aus der Perspektive seiner Smartphone-Kamera / seines Mobile Devices filmt ( = 2D), läuft über einen Machine-Learning Ansatz auf der LIFEBONUS Engagement Platform. Dabei werden von eben diese jobspezifischen Bewegungen in einem Laborumfeld zeitgleich aus verschiedenen Kameraperspektiven gefilmt, und zwar wie folgt: 

  1. Belastungstechnisch „richtige“ Bewegungen aus frontaler Smartphone-Kameraperspektive plus drei weiteren Kamera – Perspektiven, die in Kombination mit der Smartphone-Kameraperspektive eine 3-D Betrachtung der Bewegung ermöglichen
  2. Belastungstechnisch „falsche“ Bewegungen aus entsprechenden vier Kamera – Perspektiven. 

Aus diesen verschiedenen Bilddaten zur gleichen Bewegung wird ein Algorithmus (der in Ansätzen schon besteht) und im weiteren Verlauf ein selbstlernendes neuronales Netz entwickelt. Durch das Zuordnen („Labeln“) der Bilderkennung der 3 Zusatzperspektiven zur Smartphone-Kameraperspektive lernt die Software auch solche Bewegungen zu bewerten bei denen sich Körperteile temporär in einer (Teil-)Abdeckung der Perspektive der Smartphone-Kamera befinden. Für die Erstellung der Algorithmen kommt es dabei nicht auf die Menge unterschiedlicher Videos an, sondern auf die „Qualität“ der einzelnen Videos in Bezug auf die aufgenommene Bewegungsausführung: Nur wenn die Videos genau die exakten Teilbewegungen zeigen die im Labeling der Videos angeben sind wird das neuronale Netz korrekt trainiert. Allerdings müssen auch bei hoher Genauigkeit der für die Erstellung der Algorithmen genutzten Videos eine bestimmte Anzahl von Videos pro Bewegung vorliegen, um im Machine-Learning Ansatz zu aussagefähigen und stabilen Ergebnissen zu kommen. 

Erläuterung zu „falschen“ Bewegungen: Bei einer „falschen“ Bewegung müssen möglichst isolierte Fehler (z.B. zu starke Beugung der Knie beim Anheben einer Last) mit unterschiedlichen Ausprägungen erkennbar sein. Zu jedem Fehler werden voraussichtlich jeweils drei unterschiedliche Ausprägungen gefilmt:

  1. „Gering“ zu starke Beugung der Knie
  2. „Deutlich“ zu starke Beugung der Knie
  3. „Extrem“ zu starke Beugung der Knie

Es wird jeweils der gesamte Bewegungsablauf aufgezeichnet. Im nächsten Schritt werden mehrere unterschiedliche Fehler in einem Bewegungsablauf kombiniert und in den Videoaufnahmen entsprechend gelabelt. Über diese Fehlerkombinationen in einer Bewegung wird die Qualität der Bild-/Fehlererkennung und -bewertung der Einzelfehler überprüft und gegebenenfalls justiert. Auch hier kommt es nicht auf die Menge der Videoaufnahmen, sondern auf deren Qualität/Präzision an.

Bewegungen die in der oben beschriebenen Form der vier Blick- bzw. Kamerawinkeln aufgenommen werden um so das neuronale Netz mit allen Informationen aus diesen Blickwinkeln zu trainieren, bilden den „Datenpool 1“.

Unabhängig von der Erarbeitung des Datenpool 1 werden durch einen standardisierten Aufnahmeprozess mit besagten 4 Blickwinkeln auch die Körpermaße des Users erfasst (z.B. Länge des Unterarmes). So kann der Algorithmus z.B. die Länge und den Verlauf des Unterarms auch berechnen, wenn dieser teils verdeckt ist, und dadurch z.B. ebenfalls die Position einer verdeckten Schulter berechnen (= „Datenpool 2“)

Durch Kombination von Datenpool 1 und Datenpool 2 wird das neuronale Netz in die Lage versetzt auch die Ausführungsqualität von Bewegungen korrekt zu erkennen und zu bewerten, bei denen im Verlauf der Aufnahme mit der (einzigen) Smartphone-Kamera einige der Körperteile verdeckt sind (= „2,5-D Bilderkennung“).

Das neuronale Netz wird über zugängliche Basissoftware und auf Basis von Bilderkennungsalgorithmen (Machine-Learning) von spezialisierten LIFEBONUS Digital-Experten in Zusammenarbeit mit der HAW Hamburg bei LIFEBONUS in-house entwickelt und kontinuierlich verbessert. Videos werden dabei in einzelne Frames zerlegt und analysiert, und dann wieder zu einem Video zusammenbaut in dem erkennbar ist wo im Bewegungsablauf sich „Fehler“ befinden.

Ein Ziel ist es das neuronale Netz soweit zu trainieren das es über die hinterlegten Algorithmen Bewegungen in Echtzeit korrekt analysiert und dann auf verschiedene Metrics untersucht bzw. den User „live“ bei der Bewegungsausführung zu coachen. Je länger die Tests/Anwendungen laufen, desto besser kann die Bilderkennung auf die einzelnen Bewegungen der Nutzer trainiert werden und desto genauer sowie zuverlässiger wird sie.

Bei schlechten Bildverhältnissen können die Algorithmen natürlich keine qualitativ hochstehenden Aussagen treffen (ein Physiotherapeut oder Coach kann auch nicht in einem dunklen Raum präzises Feedback geben). Die Software ist sich dessen jedoch durch einen „Verlässlichkeit-Score“ bewusst und kann den User darauf hinweisen, dass das Setting kein Coaching zulässt, oder dass das Coaching aufgrund der Sichtverhältnisse nur eine eingeschränkte Aussagekraft hat. Es wird ein robuster Selektionsalgorithmus verfügbar sein, welcher zwischen verschiedenen Menschen im Bild unterscheidet. Die Kamera-Auflösung ist kein Hindernis, da die Algorithmen bereits bei tiefen Auflösungen (deutlich unter den Standards der Smartphones der letzten Jahre) gut funktionieren werden.

LIFEBONUS App
Hamburg, 08.02.2021

Ein Schritt in ein neues Zeitalter: LIFEBONUS App im Play- und App Store verfügbar

Dieser historische Schritt hat einen langen Anlauf hinter sich. Am 03.02.2021 konnte Produkt Owner Lea Wiezorek die tolle Neuigkeit verkünden: Die LIFEBONUS App hatte die strengen Prüfungen zunächst der Google-Plattform standgehalten und zwei Tage später auch die vom App-Store. Die LIFEBONUS App wird lebendig.

Von der ersten Skizze bis zur Veröffentlichung vergingen 13 Monate. Harte Arbeit, viele Teststunden und noch mehr Ideen stecken in dieser App und das ganze Team freut sich endlich mit den Test-usern arbeiten zu können. Die App liefert speziell für Pflegeberufe nützliche Informationen, Trainingsprogramme und Hilfestellungen, um den beruflichen Alltag zu verbessern. Das wissenschaftlich geprüfte LIFEBONUS-Bewegungstraining wurde erfolgreich in die App transferiert und wird nun an eine ausgewählte Testuserzahl ausgerollt. Dazu lernt jeder User marta kennen. Eine Freundin, die den User durch die App führt, bei Problemen hilft oder auch mal einen guten Witz erzählt. Das Digitalteam hat sich ehrgeizige Ziele gesetzt und die Weiterentwicklung der App wird ein spannender Prozess, der für die nächsten Jahre bei LIFEBONUS prägend sein wird.

Belastungsanalysen
Hamburg, 15. August 2019

Pionierarbeit für einen gesunden Muskel-Skelett-Apparat

LIFEBONUS-Belastungsanalysen


Um einen JOBSIMULATOR so effektiv zu entwickeln, dass das Schulungskonzept für die jeweiligen Berufsgruppen nachhaltig wirkt, führen wir bei LIFEBONUS seit 2017 umfangreiche Belastungsanalysen durch. Sie bilden die Basis für die weitere Entwicklung der Schulungskonzepte, Videoanalysen und der JOBSIUMULATOR-Infrastruktur.

Dieses Vorgehen haben wir so standardisiert, dass es die jobspezifischen Bewegungsabläufe auf ihre Belastungen hin wissenschaftlich analysiert und bewertet.

Bei Belastungsanalysen liegen körperliche Tätigkeiten im Fokus, die in erster Linie das Muskel-Skelett-System belasten. Typische Beispiele, die berufsbedingte Muskel-Skelett-Erkrankungen verursachen, sind Heben, Tragen, Ziehen und Schieben schwerer Lasten. Durch eine jobspezifische, auf Teiltätigkeiten ausgelegte Beurteilung der Belastung und ergänzende medizinische Analysen werden die Risikofaktoren für Muskel-Skelett-Erkrankungen der Beschäftigten erkannt.

  • 1) Im ersten Schritt analysieren wir im Rahmen der Arbeitsplatzanalyse neben dem Arbeitsplatz auch das Unternehmen als Organisation. Zu der Arbeitsplatzerfassung gehören die Aufgaben, Arbeitsumgebung, verwendete Arbeits- und Betriebsmittel sowie die Arbeitsorganisation, einerseits als Vergleich mit bestehenden Studien und andererseits als Grundlage, um die Belastungen zu verstehen.
  • 2) Im zweiten Schritt werden die jobspezifischen Tätigkeiten unter die Lupe genommen und die Tätigkeitsabläufe beobachtet. Bei der Arbeitsablaufanalyse erfassen wir die Ausführungsdauer der einzelnen Tätigkeiten und identifizieren die belastenden Tätigkeiten. Zudem analysieren wir die Haltungen (z.B. die Anzahl der Bückvorgänge) und die typischen Bewegungsabläufe, teilweise mit Hilfe von Videoaufnahmen, um unphysiologische Bewegungsmuster zu erkennen, die den Muskel-Skelett-Apparat unnötig belasten.
  • 3) Für die Belastungsbewertung werden im dritten Schritt passende Bewertungsmethoden zur Ermittlung des Risikoausmaßes von belastenden Tätigkeiten angewandt. Dabei erfassen wir Daten entweder per Beobachtungsverfahren, Videoaufnahmen (Capture Motion) oder unter Einsatz von Messtechnik (z.B. CUELA) und werten sie anschließend, um Belastungswerte zu ermitteln.
  • 4) Im vierten Schritt der so genannten Beanspruchungsanalyse, wird durch Studienrecherchen, Auswertung der vorliegenden Gesundheitscheckdaten und Mitarbeiterbefragungen die Frage beantwortet, welche Belastungsarten welche Wirkung auf welche Körperregionen haben. Als abgeschlossen gilt die Belastungsanalyse mit der Übergabe der Dokumentationen und Ergebnisse an das nachfolgende Modul, die Trainingskonzepterstellung. Es handelt sich dabei um einen mehrere hundert Seiten umfassenden Ergebnisbericht der Belastungsbeurteilungen mit folgenden Inhalten:


  • Zusammenfassung der Analyseergebnisse
  • Aufstellung der jobtypischen Muskel-Skelett-Beschwerden und Belastungen nach Körperregionen
  • Beschreibungen der Bewegungen, die gesundheitskritische Belastung erzeugen
  • Angaben zur Belastungsintensität
  • Empfehlungen für die Trainingsumsetzung
  • Beschreibung der idealtypischen Bewegungsabläufe


  • Eine Prüfung durch den Geschäftsbereich Prävention der BG Verkehr kam zu dem Ergebnis, dass die Bewegungsanalysen von LIFEBONUS plausibel und überzeugend durchgeführt wurden. Die Fachleute bescheinigten den umfangreichen Bewegungsanalysen höchste Genauigkeit und bestätigten ihre Wichtigkeit für die Entwicklung des JOBSIMULATORs.

    JOBSIMULATOR®
    Hamburg, 4. Februar 2019

    HAW Studie

    HAW evaluiert Wirksamkeit des JOBSIMULATOR® Trainingskonzeptes


    Um die Wirksamkeit des JOBSIMULATOR Konzeptes zu evaluieren, führt die Professur für Arbeitswissenschaft mit dem Team des Labors für Arbeit und Gesundheit der Fakultät Life Sciences der Hochschule für Angewandte Wissenschaften (HAW) Hamburg eine Studie durch, die im Februar 2019 gestartet ist. Die Studie wird durch die Berufsgenossenschaft Verkehrswirtschaft Post-Logistik Telekommunikation (BG Verkehr) und der Techniker Krankenkasse (TK) - letzteres aktuell noch in Abstimmung – finanziell unterstützt.

    Diese Evaluation findet im Rahmen des Modellprojektes JOBSIMULATOR statt. Ziel ist es, die Gestaltungsmaßnahmen zur Reduktion von physischen Belastungen und Beanspruchungen von Beschäftigten der Bodenverkehrsdienste am Hamburg Airport wissenschaftlich auf ihre Wirksamkeit zu überprüfen. Im Fokus der Studie steht der JOBSIMULATOR von LIFEBONUS. Wissenschaftliche Messungen und Befragungen sollen zeigen, in wie weit physische Belastungen und Beanspruchungen der Trainierenden reduziert werden. Weiterhin wird die Messgenauigkeit des bei LIFEBONUS eingesetzten Videosystems betrachtet.

    Mehr als 40 Probanden nehmen bisher an der Studie teil. Die ersten Zwischenergebnisse werden Ende 2019 erwartet. Im Herbst 2020 sollte eine vollständige wissenschaftliche Auswertung des JOBSIMULATOR Konzeptes vorliegen.