Die Datenschutzsprache von Apps für psychische Gesundheit öffnet Löcher für Benutzerdaten

In der Welt der Apps für psychische Gesundheit sind Datenschutzskandale fast schon zur Routine geworden. Alle paar Monate werden bei Berichten oder Recherchen skrupellos erscheinende Datenaustauschpraktiken bei Apps wie Crisis Text Line, Talkspace, BetterHelp und anderen aufgedeckt: Menschen gaben diesen Apps Informationen in der Hoffnung, sich besser zu fühlen, und dann stellte sich heraus, dass ihre Daten verwendet wurden Möglichkeiten, die Unternehmen helfen, Geld zu verdienen (und ihnen nicht helfen).

Es kommt mir vor wie ein verdrehtes Maulwurfspiel. Wann unter Prüfungdas Anwendungen oft ihre Richtlinien ändern oder anpassen – und dann tauchen neue Apps oder Probleme auf. Das bin nicht nur ich: Mozilla-Forscher sagte diese Woche dass Apps für psychische Gesundheit einige der schlechtesten Datenschutzmaßnahmen aller App-Kategorien haben.

Als ich den Zyklus in den letzten Jahren beobachtete, interessierte mich, wie genau das immer wieder passiert. Die Nutzungsbedingungen und Datenschutzrichtlinien der Apps sollen regeln, was Unternehmen mit Nutzerdaten tun dürfen. Aber die meisten Leute lesen sie kaum, bevor sie unterschreiben (auf Akzeptieren klicken), und selbst wenn sie sie lesen, sind sie oft so komplex, dass es schwierig ist, ihre Auswirkungen auf einen schnellen Blick zu erkennen.

„Dadurch ist es dem Verbraucher völlig unbekannt, was es bedeutet, überhaupt Ja zu sagen“, sagt David Grande, außerordentlicher Professor für Medizin an der University of Pennsylvania School of Medicine, der sich mit dem Datenschutz im Bereich der digitalen Gesundheit befasst.

Was bedeutet es also, ja zu sagen? Bei einigen habe ich mir das Kleingedruckte angeschaut, um mir ein Bild davon zu machen, was unter der Haube vor sich geht. Die Mental Health-App ist eine breite Kategorie und kann alles abdecken, von Peer-to-Peer-Beratungs-Hotlines über KI-Chatbots bis hin zu Einzelverbindungen mit tatsächlichen Therapeuten. Die Richtlinien, Schutzmaßnahmen und Vorschriften variieren zwischen allen Kategorien. Aber ich fand zwei Gemeinsamkeiten zwischen vielen Datenschutzrichtlinien, die mich fragen ließen, welchen Sinn es überhaupt hatte, überhaupt eine Richtlinie zu haben.

Wir können diese Richtlinie jederzeit ändern

Selbst wenn Sie eine Datenschutzrichtlinie genau und sorgfältig lesen, bevor Sie sich für ein digitales Programm für psychische Gesundheit anmelden, und selbst wenn Sie sich mit dieser Richtlinie wirklich wohl fühlen, kann das Unternehmen diese Richtlinie jederzeit ändern. Sie könnten es Ihnen sagen – sie könnten es nicht.

Jessica Roberts, Direktorin des Health Law and Policy Institute an der University of Houston, und Jim Hawkins, Rechtsprofessor an der University of Houston, auf die Probleme hingewiesen mit dieser Art von Sprache in einem Kommentar von 2020 in der Zeitschrift Wissenschaft. Jemand könnte sich mit der Erwartung anmelden, dass eine App für psychische Gesundheit seine Daten auf eine bestimmte Weise schützt, und dann die Richtlinie neu ordnen lassen, um seine Daten für eine breitere Nutzung offen zu lassen, als ihm lieb ist. Wenn sie nicht zurückgehen, um die Police zu überprüfen, würden sie es nicht wissen.

Eine App, die ich mir angesehen habe, Happify sagt in ihrer Richtlinie ausdrücklich, dass Benutzer wählen können, ob die neuen Verwendungen der Daten in einer neuen Datenschutzrichtlinie auf ihre Informationen angewendet werden sollen. Sie können sich abmelden, wenn sie nicht in die neue Richtlinie gezogen werden möchten. BetterHelp hingegen sagt, dass die einzige Möglichkeit, wenn jemand die neue Richtlinie nicht mag, darin besteht, die Nutzung der Plattform vollständig einzustellen.

Diese Art von Flexibilität in den Datenschutzrichtlinien ist beabsichtigt. Der Datentyp, den diese Apps sammeln, ist wertvoll, und Unternehmen möchten wahrscheinlich in der Lage sein, alle Gelegenheiten zu nutzen, die sich für neue Möglichkeiten zur Nutzung dieser Daten in der Zukunft ergeben könnten. „Aus Sicht des Unternehmens bringt es viele Vorteile, diese Dinge sehr offen zu halten“, sagt Grande. „Es ist schwer, ein oder zwei Jahre, fünf Jahre in der Zukunft vorherzusagen, welche anderen neuartigen Verwendungen Sie sich für diese Daten vorstellen könnten.“

Wenn wir das Unternehmen verkaufen, verkaufen wir auch Ihre Daten

Wenn Sie sich in dem Moment, in dem Sie sich für die Nutzung eines Dienstes anmelden, mit all der Art und Weise, wie ein Unternehmen Ihre Daten verwendet, wohl fühlen, ist dies auch keine Garantie dafür, dass in Zukunft nicht jemand anderes für dieses Unternehmen verantwortlich ist. Alle Datenschutzrichtlinien, die ich mir angesehen habe, enthielten eine spezifische Sprache, die besagte, dass die Daten mit ihr gehen, wenn die App erworben, verkauft, mit einer anderen Gruppe oder einer anderen geschäftlichen Sache fusioniert wird.

Die Richtlinie gilt also nur jetzt. Sie gilt möglicherweise in Zukunft nicht mehr, nachdem Sie den Dienst bereits genutzt und ihm Informationen über Ihre psychische Gesundheit gegeben haben. „Man könnte also argumentieren, dass sie völlig nutzlos sind“, sagt John Torous, ein Forscher für digitale Gesundheit in der Abteilung für Psychiatrie des Beth Israel Deaconess Medical Center.

Und Daten könnten genau der Grund sein, warum ein Unternehmen ein anderes kauft. Die Informationen, die Menschen an Psychiatrie-Apps weitergeben, sind sehr persönlich und daher sehr wertvoll – wohl mehr als andere Arten von Gesundheitsdaten. Werbetreibende möchten möglicherweise Menschen mit besonderen psychischen Bedürfnissen für andere Arten von Produkten oder Behandlungen ansprechen. Chat-Transkripte einer Therapiesitzung können nach Informationen darüber durchsucht werden, wie sich Menschen fühlen und wie sie auf verschiedene Situationen reagieren, was für Gruppen nützlich sein könnte, die Programme für künstliche Intelligenz entwickeln.

„Ich denke, deshalb haben wir immer mehr Fälle im Bereich der Verhaltensgesundheit gesehen – dort sind die Daten am wertvollsten und am einfachsten zu sammeln“, sagt Torous.


Ich habe Happify, Cerebral, BetterHelp und 7 Cups nach diesen spezifischen Formulierungen in ihren Richtlinien gefragt. Nur Happify und Cerebral antworteten. Sprecher beider bezeichneten die Sprache als „Standard“ in der Branche. „In jedem Fall muss der einzelne Benutzer die Änderungen überprüfen und sich anmelden“, sagte Happify-Sprecherin Erin Bocherer in einer E-Mail an Der Rand.

Die Cerebral-Richtlinie zum Verkauf von Daten ist vorteilhaft, da sie es Kunden ermöglicht, die Behandlung fortzusetzen, wenn es zu einem Eigentümerwechsel kommt, heißt es in einer Erklärung, die per E-Mail an gesendet wurde Der Rand von Sprecherin Anne Elorriaga. Die Sprache, die es dem Unternehmen ermöglicht, die Datenschutzbestimmungen jederzeit zu ändern, „ermöglicht es uns, unsere Kunden darüber auf dem Laufenden zu halten, wie wir ihre personenbezogenen Daten verarbeiten“, heißt es in der Erklärung.

Nun, das sind nur zwei kleine Abschnitte der Datenschutzrichtlinien in Apps für psychische Gesundheit. Sie sprangen auf mich zu als spezifische Wortfetzen, die Unternehmen einen breiten Spielraum geben, um umfassende Entscheidungen über Benutzerdaten zu treffen – aber die übrigen Richtlinien tun oft dasselbe. Viele dieser digitalen Gesundheitstools sind nicht mit medizinischem Fachpersonal besetzt, das direkt mit Patienten spricht, sodass sie nicht betroffen sind HIPAA-Richtlinien rund um den Schutz und die Offenlegung von Gesundheitsinformationen. Selbst wenn sie sich entscheiden, die HIPAA-Richtlinien zu befolgen, haben sie immer noch große Freiheiten in Bezug auf Benutzerdaten: Die Regel erlaubt Gruppen, persönliche Gesundheitsinformationen zu teilen, solange sie anonymisiert und von identifizierenden Informationen befreit sind.

Und diese umfassenden Richtlinien spielen nicht nur bei Apps für psychische Gesundheit eine Rolle. Sie sind auch bei anderen Arten von Gesundheits-Apps (und Apps im Allgemeinen) üblich, und digitale Gesundheitsunternehmen haben oft eine enorme Macht über die Informationen, die Menschen ihnen geben. Aber geistig Gesundheitsdaten werden einer zusätzlichen Prüfung unterzogen, da die meisten Menschen diese Daten anders wahrnehmen als andere Arten von Gesundheitsinformationen. Eine Umfrage unter US-Erwachsenen veröffentlicht in JAMA-Netzwerk geöffnet im Januar zum Beispiel heraus, dass die meisten Menschen eher digitale Informationen über Depressionen als über Krebs teilen möchten. Die Daten können unglaublich sensibel sein – sie enthalten Details über die persönlichen Erfahrungen der Menschen und sensible Gespräche, die sie möglicherweise vertraulich behandeln möchten.

Das Online-Bringen der Gesundheitsversorgung (oder anderer persönlicher Aktivitäten) bedeutet normalerweise, dass eine gewisse Datenmenge vom Internet aufgesaugt wird, sagt Torous. Das ist der übliche Kompromiss, und die Erwartungen an absolute Privatsphäre in Online-Bereichen sind wahrscheinlich unrealistisch. Aber, sagt er, es sollte möglich sein, die Menge, die passiert, zu moderieren. „Nichts im Internet ist zu 100 Prozent privat“, sagt er. „Aber wir wissen, dass wir die Dinge viel privater machen können, als sie es jetzt sind.“

Dennoch ist es schwierig, Änderungen vorzunehmen, die den Datenschutz für die Informationen zur psychischen Gesundheit der Menschen wirklich verbessern würden. Die Nachfrage nach Apps für psychische Gesundheit ist hoch: Ihre Nutzung stieg während der COVID-19-Pandemie, als mehr Menschen es waren, sprunghaft an Popularität Behandlung suchenaber noch da war nicht genug zugängliche psychiatrische Versorgung. Die Daten sind wertvoll, und es gibt keinen wirklichen externen Druck auf die Unternehmen, sich zu ändern.

Die Richtlinien, die Menschen die Möglichkeit geben, die Kontrolle über ihre Daten zu verlieren, haben also weiterhin die gleichen Strukturen. Und bis der nächste große Medienbericht die Aufmerksamkeit auf einen bestimmten Fall einer bestimmten App lenkt, wissen Benutzer möglicherweise nicht, auf welche Weise sie anfällig sind. Ungeprüft, sagt Torous, könnte dieser Zyklus das Vertrauen in die digitale psychische Gesundheit insgesamt untergraben. „Gesundheitsversorgung und psychiatrische Versorgung basieren auf Vertrauen“, sagt er. „Ich denke, wenn wir diesen Weg weitergehen, werden wir irgendwann das Vertrauen von Patienten und Ärzten verlieren.“

Leave a Comment