Recherche zur Luca App

Leider gibt es bei Datensicherheit kein „größtenteils sicher“. Entweder es ist sicher, oder eben nicht. Einsen und Nullen, dazwischen gibt es nichts. Hier ist nicht zu diskutieren.

Sicherlich gibt es unterschiedliche Methoden diese Sicherheit zu erreichen. Aber nur wenn diese offen gelegt und von neutralen Dritten überprüft werden können kann man aus technischer Sicht eine Freigabe geben. Und nur dann kann man über die Methoden auch diskutieren. Closed Source ist deswegen kein guter Weg, da man die Umsetzungen dann nur noch als Black Box testen kann.

Zurück zur Luca-App: Hier gibt es einfach handfeste wirtschaftliche Interessen, um eine neue Anwendung mit viel Macht und Popularität einzelner Personen in den Markt zu bringen. Dies macht die App nicht grundsätzlich zu einer schlechten Lösung, wohl aber wird sie gerade deswegen in der IT Security Branche mit Skepsis betrachtet. Skepsis kann man ausräumen, aber das geht nur mit Transparenz, und alles was ich bisher dazu von der Luca-App mitbekommen habe scheint der Hersteller dazu nur bedingt bereit zu sein.

Diese Verweigerung einer Diskussion ist ganz genau das, was ich meine! Selbstverständlich gibt es etwas zu diskutieren:

  1. Wenn Anonymität Prinzip-bedingt nicht möglich ist (weil die Anforderung Daten für eine Kontaktnachverfolgung sind), gibt es keine 100%ige Sicherheit. Das wird immer ein Katz-und-Maus-Spiel sein zwischen Sicherheitsmaßnahmen und Hackern.
  2. Und dann gibt es immer eine Abwägung: Wie viel Aufwand können und wollen wir betreiben, um die jeweils nächste 1% Sicherheit zu erreichen? Irgendwann kommt man einen Punkt, an dem der Aufwand für die nächsten 1% Sicherheit in keinem Verhältnis mehr steht zur Wahrscheinlichkeit, dass jemand diese Sicherheitsmaßnahme noch umgeht (wobei derjenigen ja eine ganz ähnliche Abwägung vornimmt).

Disclaimer: Ich bin kein Fan der Entwickler und/oder Betreiber von Luca, noch von Fanta4 oder Smudo. Die haben sich wirklich teilweise zu dusselig angestellt und wirken streckenweise völlig überfordert, manchmal un-professionell. Aber deren Idee, deren Konzept, deren Vision von dem Tool ist es m.E. wert, nicht gleich das Kind mit dem Bade auszuschütten.

Ich plädiere dafür, dass z.B. der Bund einen Vertrag mit dem Betreiber oder dem Entwickler macht, mit dem dieser, die komplette IT-Lösung sowie deren Verfahren und Betrieb unter Aufsicht einer kompetenten Bundesbehörde (z.B. Bundesamt für Sicherheit in der Informationstechnik zusammen mit dem Bundesbeauftragten für den Datenschutz und der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder) gestellt wird. Und es müssen alle bislang gefundenen sowie noch zu findenden Schwachstellen und Bugs unverzüglich beseitigt werden.

Dazu:

Uneingeschränkt einverstanden. Ich habe noch immer die Hoffnung, dass die auch die Quelltexte für die iOS-App, die Webanwendung und die Server-Anwendung unter Open Source veröffentlichen.

Kann ich verstehen, auch wenn ich das grundsätzliche Misstrauen gegen Menschen mit Gewinnabsicht nicht teile.

Ich kenne deren wirtschaftlichen Absichten nicht. Die bislang mit den Ländern vereinbarte Vergütung wird es nicht alleine sein (davon geht ein nicht unerheblicher Teil für laufende Kosten wie Server, SMS-Gebühren, etc. drauf und schließlich entwickeln die schon etliche Monate mit einer heißen Nadel und einem ich weiß nicht wie großen Team).

Ich mutmaße: Die wissen das selbst noch nicht so genau. Vermutlich wollen sie erst einmal einen große installierte Basis schaffen und dann darüber nachzudenken, wie sie damit dann verdienen können.

Vielleicht können sie den Gäste-Nutzern und/oder den Location-Betreibern und Veranstalter nutzbringende Zusatzleistungen anbieten. Gerüchte sprechen über die Übermittlung von Testergebnissen (interessant, dass SAP und Telekom dieses Feature gerade jetzt für die Corona Warn App angekündigt haben) - vielleicht wird das eine kleine Gebühr kosten?

Für einen solchermaßen erweiterten Zweck dürfen sie aber gem. DSGVO erst einmal nicht die hinterlegten personenbezogenen Daten verwenden. Dazu müssen die Nutzer explizit zustimmen. Darüber hinwegsetzen wäre angesichts der möglichen Bußgelder ein hohes wirtschaftliches Risiko und damit ziemlich dumm.

Ein gutes hatte die Luca App ja auf jeden Fall: Die Corona Warn App bekommt jetzt endlich Funktionen, mit denen man die App endlich aktiv nutzbringend verwenden kann.

Worüber möchtest Du denn diskutieren? Ob man das Risiko, dass die Daten entweder ungewollt in fremde Hände fallen oder sogar, was fast noch schlimmer wäre, bewusst für andere Auswertungen benutzt werden, eingehen wollen?

Soweit ich das richtig sehe gibt es doch jetzt (bald) eine Erweiterung der Corona Tracing App, die trotz Anonymität ein Tracing für z.B. Gastronomie etc. ermöglichen soll. Man sollte doch den schlauen Köpfen, die wir in der IT haben, entsprechende Lösungen zu entwickeln.

Nö. Man sollte diskutieren, ob die technischen und organisatorischen Vorkehrungen zum Schutz der personenbezogenen das Risiko so weit absenkt, dass wir bereit sind, das Restrisiko in Kauf zu nehmen, wenn dadurch Leben gerettet, Langzeitfolgen verhindert und eine Rückkehr zur Normalität wieder zur Perspektive wird (in Kombination mit Impfen, Testen u.v.a. Maßnehmen). Mit Menschen, die ein Restrisiko für inakzeptabel halten, kann man halt nicht diskutieren … Gegenfrage: Nimmst Du am Verkehr teil? Lebst Du seit Jahrzehnten in einem Land, in dem es noch Atomkraft gibt? Nutzt Du Google, Facebook, WhatsApp, Instagram, Twitter, YouTube, … In unzählige Bereichen leben wir mit Restrisiko.

Nein, die Corona Warn App wird auch nach dem Update kein contact tracing = Kontaktnachverfolgung können. Sie kann „nur“ Risikokontaktwarnung nach Clustererkennung (was wertvoll ist). Nochmal: Tracing = Kontaktnachverfolgung kann Prinzip-bedingt nicht anonym sein.

Man kann sich aus diese Grund bewusst gegen Kontaktnachverfolgung entscheiden. Dann muss man aber erklären, wie man bei der exponentiellen Entwicklung die Pandemie eindämmen kann, wenn ein bestimmten Prozentsatz von Covidioten, Egoisten und Dummen sich nicht vernünftig verhält.

Was heisst hier „Restrisiko“? Die Daten fallen an, sie werden gespeichert, sie werden verwendet. Diese Daten verschwinden nicht mehr. Das Risiko mag also am Anfang gering sein, aber es steigt ständig an, automatisch. Je größer die Datenmenge wird desto interessanter wird sie für Kriminelle und irgendwann auch für Regierungen.

Ja, habe ich eine Alternative?

Leider, ich habe jedoch jede Partei und Organisation unterstützt die gegen Atomkraft war, seit ich politisch denken kann.

In Teilen, aber ich kann mich dem entziehen wenn ich will. Das kann ich aber bei Tracing apps nicht mehr wenn Kontakt Nachverfolgung für sämtliches öffentliches Leben nötig sein wird.

Leider wieder falsch. Alle Checkin Daten werden nach 30 Tagen gelöscht

Ich möchte das hier nicht zu einer Privatdiskussion machen, aber ich arbeite in einem Unternehmen dass mit vielen Daten umgeht und aus mehreren regulatorischen Gründen Daten nach einer gewissen Zeit löschen muss. Und ich kann aus Erfahrung sagen, dass dies schwierig ist. Solchen Daten laufen durch verschiedene Server-Systeme, landen dann in Datenbanken, werden in Backups geschrieben, und und und. Dafür zu sorgen dass wirklich alle gelöscht werden, solange diese Daten nur in einem Unternehmen bleiben ist schon schwierig und erfordert Pflege, denn Datenströme ändern sich auch.

So, nun werden diese Daten aber noch an die Gesundheitsämter übertragen. Die müssen nun auch alle diese Verfahren umsetzen und kontrollieren. In meiner Erfahrung ist es hoch wahrscheinlich dass sich ob gewollt oder ungewollt Daten anhäufen werden.

1 „Gefällt mir“

Das ist eine sehr interessante Perspektive:

Das ist der Grund, warum eine vertrauenswürdige Öffentliche Instanz mit Betreiber und oder Entwickler einen Rahmenvertrag abschließen sollte:

Ich vermisse die sehr kritische Diskussion des Logbuchs netzpolitik in diesem Thread.

Hallo ChristianF,

inwiefern vermisst Du die Diskussion aus dem Logbuch?
trq hat ja in mehreren Fäden Bezug auf die Diskussion von LNP genommen und argumentiert warum das für sie nicht entscheidend / überzeugend ist.

Andere Talk-Diskutant:innen sind anderer Meinung und haben auch im Verlauf der Diskussion bezug auf verschiedene LNPs genommen.

Es gibt eine ganze Reihe von Threads zum Thema:

Sorry, habe ich inzwischen auch gesehen. Wollte nur sichergehen, dass das wahrgenommen wurde, aber Ihr seid tief im Thema :wink:

Mit nur einem Bild eines beliebigen Schlüsselanhängers,der im «Luca App»-Systemverwendet wird, lässt sich mit einfachen Programmierkenntnissenunbemerkt dasBewegungsprofil der Nutzer:in des Anhängers auslesen.

Klar, werden sie wohl beheben das Problem. Nur wo schlummern sonst noch solche Fallstricke?

Ja, ist eine heftige Schwachstelle. Zusammen mit einigen anderen Schwachstellen wirft das doch langsam aber sicher ein wirklich fragwürdiges Licht nicht nur auf die Implementierung durch die Entwickler, sondern auch auf Design und Sicherheitskonzept. Zusammen mit deren oftmals verblüffenden Außenkommunikation geht sogar mir langsam das Vertrauen flöten …

Ändert aber an meiner Meinung nichts.

  1. Angesichts von Covidioten, Egoisten und Dummen könnten wir uns auf ein strikt anonyme Lösung zur Warnung vor Risikokontanten nicht allein verlassen. Wir brauchen die Kontaktnachverfolgung und daher die Kontaktdaten aller Besucher aller Cluster-Situation.
  2. Die heutigen handschriftlichen „Corona-Gästelisten“ sind unter Datenschutz- wie auch unter Effizienz-Gesichtspunkten indiskutabel. Eine Digitalisierung des kompletten Prozesses von Check-In in Locations und Events bis zur Kontaktnachverfolgung durch das Gesundheitsamt ist daher dringend erforderlich, damit die Gesundheitsämter entlastet werden.
  3. Das geht nicht mit eine Security-by-Design-Konzept, das auf Anonymität setzt. Auch auf eine gewissen Zentralität von Daten wird man nicht verzichten können. Und das Ganze macht nur Sinn, wenn die Lösung Zugangsvoraussetzung für möglichst alle Location und Events mit Cluster-Charakter wird.
  4. Natürlich wäre es besser, für eine solche Lösung ein Konzept, ein Protokoll und die Schnittstellen zu definieren und dann entweder die Lösung staatlicherseits zu entwickeln oder möglichst viele verschiedenen Lösungen zu integrieren. Doch, ich kann Mike Ryan von der WHO nicht häufig genug (sinngemäß) zitieren: Perfektion, Bedenken und Abwarten sind die drei besten Freunde des Virus. Daher müssen wir mit der am weitest gedienten Lösung vorlieb nehmen und alle Schwachstellen schnellstmöglich beseitigen. Das bedarf allerdings einer zentralen staatlichen Stelle, die die Vergabe steuert und koordiniert, Rahmenbedingungen definiert, Verträge abschließt, den Betrieb des Systems überwacht, … Statt dessen haben wir einen aufgeregten, unkoordinierten Flatterhaufen von Bundesländern, Städten und Kommunen, bei denen wahrscheinlich kaum einer Ahnung von sowas hat.