Laden...

Amazon ermöglicht Live-Gesichtserkennung für ganze Städte

Erstellt von Palin vor 5 Jahren Letzter Beitrag vor 5 Jahren 15.361 Views
P
Palin Themenstarter:in
1.090 Beiträge seit 2011
vor 5 Jahren

Ich persönlich halte die Erforschung und weiter Entwicklung, nicht grundlegend für falsch. Sondern eher für sinnvoll. Die Frage ist nur, was wir daraus machen.

Ich denke Geschichtlich gesehen ist Einstein mit seiner Formel E=mc^2 ein gutes Beispiel.
Wissenschaftlich gesehen war die spezielle und später die allgemeine Relativitätstheorie, ein immenser Durchbruch.

Was daraus resultierte war Katastrophal. Auch wenn Einstein als Pazifist, lange gegen den Bau einer Atombombe gewesen ist. Hat er auf Grund von Fehlinformationen (die Nazis stehen kurz davor) Roosevelt dazu geraten, eine Atombombe zu bauen. Was er später bitterlich bereut hat.

Ich finde das Oppenheimer Zitat passt ganz gut dazu:“Ich bin der Tod geworden, der Zerstörer von Welten“.

E=mc^2 war an dem Punkt nicht das Problem. Sondern was wir Menschen daraus gemacht haben.

Software die möglichst Sachen (Gegenstände, Gesichter usw.) erkennt ist auch kein Problem (ein sinnvoller Einsatz, sind z.B. Autonome Fahrzeuge).

Die Frage ist nur wie wir sie Einsätzen.

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

286 Beiträge seit 2011
vor 5 Jahren

Die Bahn geht da aktuell einen recht interessanten Ansatz:
Nach dem Ende des Feldversuchs in puncto Gesichtserkennung sollen die Kameras weiterverwendet werden und das System darauf konditioniert werden "Situationen" zu erkennen und diese dann zu melden.
Einerseits ist Gesichtserkennung ohnehin ein rein fahnderisches Instrument, da man ja bereits wissen muss nach wem man sucht. Andererseits das große Missbrauchspotential das damit einhergeht.

Situationen erkennen hat hier imho den deutlichen Vorteil, dass es z.T. sogar präventiv, immerhin aber sehr zeitnah eingesetzt werden kann. Desweiteren ist sind die Missbrauchsmöglichkeiten sehr viel geringer, da keine Identifikation einzelner Personen stattfinden muss.

2+2=5( (für extrem große Werte von 2)

49.485 Beiträge seit 2005
vor 5 Jahren

Hallo Palin, hallo zusammen,

drastischer, aber im Kern trotzdem guter Vergleich. Und die Fehlinformationen sind gerade aktuell der springende Punkt. Wenn die Leute sich - wie ich finde - schon in sehr stark irrationaler Weise vor Terror, Migration und Verbrechen fürchten, fallen die (politischen/gesellschaftlichen) Entscheidungen natürlich anders, als wenn alle ein entspannteres und - wie ich denke - damit rationaleres Bild der Wirklichkeit hätten. Leider sehe ich keinen Weg, wie man die Massen dahin bekommt. Solche Rechnungen wie oben, erreichen die Gefühlsgesteuerten erst gar nicht. In solchen Bereichen bekleckert sich der Mensch als Krone der Schöpfung nicht gerade mit Ruhm, sondern reagiert leider auf Stammhirn-Level (das meine ich beschreibend, nicht beleidigend).

Hallo emuuu, hallo zusammen,

darauf konditioniert werden "Situationen" zu erkennen [Hervorhebungen von mir]

trotz der beschrieben Vorteile finde ich das auf eine gewisse Weise noch schlimmer. Weil das meiner Meinung nach ein bestimmtes (staatliches) Bild von Normalität voraussetzt, von der dann (bestimmte oder alle) Abweichungen gemeldet werden. Insofern besteht die Gefahr, dass in der Folge Menschen darauf konditioniert werden, sich (im stattlich definierten Sinne) normal zu verhalten. Dabei liegt gerade in den nicht Normalen, den Außenseitern, den unangepassten, den Ungewöhnlichen oder Außergewöhnlichen, der Avantgarde eine große Chance zum Vorankommen der Gesellschaft als Ganzes. Einstein ist da bei weitem nicht das einzige Beispiel. Das wird leider gerne übersehen.

Natürlich denke ich nicht, dass die Bahn im geschilderten Sinne Gedankenkontrolle oder Konformitätsdruck plant. Aber in China wird das ja mit dem Social Scoring und eben auch der Gesichtserkennung ganz bewusst vorangetrieben. Und so weit ich weiß, ohne nennenswerten Widerstand in der Bevölkerung. Viele finden das wohl sogar gut. Kopfschüttel! Und das trotz erheblicher diskriminierender Nachteile für die Unangepassten, wie z.B. Einschränkungen der Onlinebestellung oder der Nutzung von Verkehrsmitteln.

Vielleicht liegt es in der Natur des Menschen, dem Unangepassten und Fremden mit Ablehnung zu begegnen. Aber gerade deshalb halte ich die Menschenrechte wie Gleichheit/Diskriminierungsverbot und Asylrecht für große humane und soziale Errungenschaften, die - wie man aktuell leider immer wieder sieht - gerne mal beiseite geschoben wird, gerade wenn es um Minderheiten geht.

Klar, letztlich ist es immer eine Frage der Ausgestaltung, ob spürbare Nachteile entstehen. Aber gerade deshalb ist es so wichtig, dass jeder InformatikX und jeder TechnikgestaltX sich nicht nur ernsthafte Gedanken über die möglichen Folgen seiner Entwicklung macht, sondern auch die Konsequenzen zieht und das Design und Programmierung so gestaltet, dass Nachteile und Missbrauch möglichst inhärent ausgeschlossen werden.

herbivore

16.806 Beiträge seit 2008
vor 5 Jahren

Ich lese allerdings genau das Gegenteil, wenn dort steht:

Microsoft betont, dass der Einsatz von nicht ausgereifter Gesichtserkennung, die beispielsweise bei Frauen und dunkelhäutigen Personen sehr ungenau arbeiten, nicht zielführend sei. Das Unternehmen arbeite daran, das zu verbessern.

Bitte richtig lesen. Es geht nicht um die Unterscheidung der Eigenschaften.
Das Problem ist, dass die Systeme aktuell das Problem haben zB Frauen mit entsprechend hoher Wahrscheinlichkeit als Entität "Mensch" erkennen.

5.657 Beiträge seit 2006
vor 5 Jahren

Das steht dort nicht. Es steht dort, daß Microsoft "Minority Report" nicht mit den bisherigen Systemen umsetzen will, weil die bei der Gesichtserkennung zu viele Fehler machen. Und daß Microsoft das Problem beheben will.

Weeks of programming can save you hours of planning

49.485 Beiträge seit 2005
vor 5 Jahren

Hallo MrSparkle,

naja, Microsoft setzt sich aber schon grundsätzlich für eine Regulierung ein, die Nachteile für die Gesellschaft verhindern soll. Und nicht für Übergangsregelung, bis die Systeme gut genug sind.

herbivore

3.170 Beiträge seit 2006
vor 5 Jahren

Hallo,

Microsoft betont, dass der Einsatz von nicht ausgereifter Gesichtserkennung, die beispielsweise bei Frauen und dunkelhäutigen Personen sehr ungenau arbeiten, nicht zielführend sei. Das Unternehmen arbeite daran, das zu verbessern.

Diese Passage steht ja nun n einem ganz anderen Kontext, als die Hinweise auf die Gefahren der Gesichtserkennung.
Ich interpretiere das so:

  • Zunächst mal wird auf die Gefahren und die Notwendigkeit einer Regulierung ingewisen.
  • Im Anschluss wird nachgeschoben, dass ferhleranfällige/ungenaue Algorithmen ohnehin nicht zielführend sind, selbst mit einer entsprechenden Regulierung. Und genau das soll verbessert werden. Die Notwendigkeit einer sinnvollen Reguilierung wird dabei aber nicht angezweifelt.

Gruß, MarsStein

Non quia difficilia sunt, non audemus, sed quia non audemus, difficilia sunt! - Seneca

96 Beiträge seit 2012
vor 5 Jahren

Die Bahn geht da aktuell einen recht interessanten
>
:
Nach dem Ende des Feldversuchs in puncto Gesichtserkennung sollen die Kameras weiterverwendet werden und das System darauf konditioniert werden "Situationen" zu erkennen und diese dann zu melden.

Schaut Euch mal das Projekt INDECT an. Google wird die passenden Treffer ausspucken. Dieses Projekt fand kaum in den Medien statt.


Gruß
Carlo

"Palabras que no coinciden con hechos no valen nada."

P
Palin Themenstarter:in
1.090 Beiträge seit 2011
vor 5 Jahren

Na die letzte aktivität auf der Homepage von INDECT war 2014, ich hoffe mal das Projekt ist mittlerweile eingestellt.

Was da bei (WIKI)INDECT als "Abnormales Verhalten" eingestuft wird. Ist echt schnell erreicht z.B. " „zu langes“ Sitzen auf Flughäfen". Da verpasst man mal seinen Flieger und muss auf dem nächsten warten und schon wird automatisch von dem System in die 24h Dauerüberwachung geworfen.

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

16.806 Beiträge seit 2008
vor 5 Jahren

Das ist also ein hochentwickeltes System, das "abnormales Verhalten" erkennt (hier als Beispiel langes Sitzen) und es soll dann die Information "Flug verpasst" nicht haben, um das verknüpfen zu können? 🤔

Das ist das Problem, das ich hier immer wieder empfinde.
Man wirft diesen Systemen, die offensichtlich so extrem weit sind, immer irgendwelche Pauschalitäten vor, nur weil der Gedankengang an einem sehr(!) einfachen Konstrukt sehr schnell zu Ende ist.

Diese als "abnormale Verhalten" definierten Dinge sind doch in erster Linie mal Trigger, wie zB. ein Schedulung auf einen Timestamp.
Wenn das solche Raketentechniken sind, werden die Workflows nicht beim nächsten IF enden.

49.485 Beiträge seit 2005
vor 5 Jahren

Hallo Abt, hallo zusammen,

... und es soll dann die Information "Flug verpasst" nicht haben ...

dadurch wird es ja nur noch gruseliger! Das System weiß dann nicht nur, was ich mache, sondern auch warum. Je mehr ein solches System über mich weiß, desto unakzeptabler wird es, wenn es mein Verhalten überwacht. Erst recht, wenn es Konsequenzen auf "unangepasstes" Verhalten gibt.

Für mich ist das alles mit dem Recht auf Privatsphäre nicht vereinbar. Und wie ich schon oben schrieb, wünsche ich mir eher eine Entwicklung in die andere Richtung, also eine Ausdehnung auf ein Recht auf Privatsphäre im öffentlichen Raum.

Für mich ist also nicht die Frage, wie man ein solches System noch "besser" machen kann, sondern wie man Systeme in solcher Form - z.B. durch entsprechende Regulierungen - wirksam verhindert.

Es gibt sicher sinnvolle Einsatzgebiete für Gesichtserkennung, aber nicht zur (direkten oder indirekten) Massenüberwachung der Bevölkerung. Und aus meiner Sicht ist es schon dann eine Massenüberwachung der Bevölkerung, wenn Straftäter gesucht werden, weil dann trotzdem die Gesichter aller gescannt und überprüft werden müssen. Und natürlich auch für unbescholtene die Gefahr von "false positives" besteht. Bei verhaltensbasierten System ist es noch klarerer, dass die Überwachung die gesamte Bevölkerung betrifft, denn es ist ja vorher gerade nicht klar, wer (möglicherweise vollkommen ungewollt) "abnormales" Verhalten zeigt.(**)

Ich frage mich, was passieren würde, wenn jemand vorschlagen würde, ein System zu realisieren, dass die Geschwindigkeit jedes Autos zu jeder Zeit überwacht und bei jeder Überschreitung des erlaubten Rahmens automatisch Knöllchen, Bußgelder und Punkte verteilt.(*) Da kann man auch sagen, das rettet sehr viele Leben. Vermutlich deutlich mehr als irgendwelche Terrorabwehrsysteme. Aber bei der allgemeinen Negativhaltung gegen jetzige Blitzer ("Wegelagerer" und "Abzocker") kann ich mir nicht vorstellen, dass eine solche Maßnahme besonders beliebt wäre (um es gelinde auszudrücken).

Aber ein solches System wäre relativ schnell die konsequente Forderung, wenn man in anderen Bereichen mit Verhaltensüberwachung beginnt. Gerade weil damit mehr Menschenleben gerettet werden könnten als durch ein Terrorabwehrsystem.

Also wollte ihr wirklich in irgendeinem Bereich mit automatischer Verhaltensüberwachung beginnen? Wenn das früher oder später die unausweichliche Folge ist? Das öffnet aus meiner Sicht die Büchse der Pandora.

herbivore

(*) Und deiner Argumentation nach wäre das System sogar so schlau, dass es wüsste, wenn eine Überschreitung z.B. in Notfällen gerechtfertigt war.

(**) Man beachte auch die Wortwahl, siehe allgemein Framing (Kommunikationswissenschaft) und speziell Framing – Die Macht der Sprache. Man könnte es auch "unerwünscht" oder "unangemessen" nennen, aber dann wüsste ja jeder, dass er potenziell betroffen ist, denn wer hat noch nie etwas "unangemessenes" getan (rhetorische Frage). Aber "abnormal" das ist man natürlich nie selbst, dass sind immer nur andere, also gestörte oder unangenehme Zeitgenossen, die es auch verdient haben, wenn sie Konsequenzen zu spüren bekommen.

286 Beiträge seit 2011
vor 5 Jahren

Das System weiß dann nicht nur, was ich mache, sondern auch warum. Je mehr ein solches System über mich weiß, desto unakzeptabler wird es, wenn es mein Verhalten überwacht. Erst recht, wenn es Konsequenzen auf "unangepasstes" Verhalten gibt.

Das ist dann eher eine rein politische denn technische Frage, dass man dem Ganzen die entsprechenden Grenzen aufsetzt.

Nehmen wir das Beispiel, dass die Bahn in meinem Link als eine Situation erkennen will: "Person befindet sich auf den Gleisen".
Dies kann das System erkennen, ohne das irgendwelche Persönlichkeitsrechte konkret verletzt werden (gesetzt die Annahme, dass die Videodaten für Menschen unzugänglich nur zur aktuellen Auswertung zwischengespeichert werden), da das System dann nur meldet irgendjemand ist im Gleis und nicht Peter Mustermann geb. 1987 wohnhaft xyz befindet sich gerade im Gleis.

Technisch dürfte eine Situationsüberwachung eigentlich eine vergleichsweise geringe Hürde sein: Nimm eine KI und lern sie mit ein paar tausend Stunden Überwachungsmaterial an. Und schon erkennt sie abnormale Situationen. Insbesondere deinen Einwand bezüglich einer gesteuerten Konditionierung was recht ist und was nicht, sehe ich hier nicht. Da in dem Szenario das aktuelle gesellschaftlich anerkannte und geltendem Recht entsprechende IST als normal gilt (also eben so wie sich jetzt ohnehin 99% der Menschen verhalten) und nur Abweichungen davon zu einem Ausschlag im System führen.
Das Szenario halte ich allein deswegen schon für wahrscheinlicher, weil es viel leichter ist einer KI beizubringen "so ist normal und nun melde immer wenn etwas abnormales passiert" als "erkenne wenn XYZ passiert und dann melde dich". Und letzteres bräuchtest du um eine gesteuerte Konditionierung zu betreiben.

2+2=5( (für extrem große Werte von 2)

1.040 Beiträge seit 2007
vor 5 Jahren

Da in dem Szenario das aktuelle gesellschaftlich anerkannte und geltendem Recht entsprechende IST als normal gilt

Sowas kann sich ändern und genau das ist das Problem.

49.485 Beiträge seit 2005
vor 5 Jahren

Hallo emuuu,

"Person befindet sich auf den Gleisen".

das wäre ja nun gerade keine Verhaltenserkennung, weil man nicht erkennt, was für ein Verhalten die Person dort an den Tag legt oder welches Verhalten dazu geführt hat, dass sie sich im Gleis befinden. Im Grunde braucht man nicht mal zwischen Person oder Gegenstand im Gleis zu unterscheiden. Hier geht es nur um die Frage: Gleis frei oder nicht. Insbesondere wenn die Kameras tatsächlich nur das Gleis erfassen, wo sich im Normalfall kein Mensch befindet. Oder es gar keine Kameras gibt, sondern nur andere Sensoren wie Lidar o.ä. Das ist also aus meiner Sicht was ganz anderes als das Erkennen von abweichendem Verhalten. Daher wäre eine Gleis-frei-Erkennung für mich ok.

Insbesondere deinen Einwand bezüglich einer gesteuerten Konditionierung was recht ist und was nicht, sehe ich hier nicht.

Bei der Gleis-frei-Erkennung aus den genannten Gründen sicher nicht.

Da in dem Szenario das aktuelle gesellschaftlich anerkannte und geltendem Recht entsprechende IST als normal gilt (also eben so wie sich jetzt ohnehin 99% der Menschen verhalten) und nur Abweichungen davon zu einem Ausschlag im System führen.

Selbst wenn ein System nur die bestehenden gesellschaftlichen Regelungen abbildet, würde das zu einer - aus meiner Sicht negativen - Konditionierung führen.

Zum einen gibt es, wie schon ob beschrieben Situation, in denen gar kein Mensch anwesend ist, der von einem Regelverstoß betroffen wäre, ich mich aber trotzdem unsinniger- bzw. rein formalerweise an die Regel halten muss, weil ich wegen des System negative Konsequenzen hinnehmen müsste. Außerdem verhalten sich Menschen, die beobachtet sind (oder sich auch nur fühlen), anderes als unbeobachtete. Ich will unter solchen Bedingungen nicht leben.

Man hätte ständig die Schere im Kopf, wie man sich den Regeln nach verhalten muss, damit man keine Konsequenzen zu spüren bekommt, statt zu entscheiden, sich so zu verhalten, wie man es vor sich selber und den Betroffenen rechtfertigen kann. Mit anderen Worten, es geht nicht mehr darum, sich so zu verhalten, wie man es guten Gewissens vertreten kann, sondern sich entsprechend vorgegebener und schlimmstenfalls festgefügter Regeln gezwungen ist, sich zu verhalten, wenn man negative Konsequenzen vermeiden will.

Zum anderen wird dadurch eine bestimmte Wertvorstellung konserviert und gesellschaftliche Entwicklungen werden dadurch erschwert. Zum Beispiel könnte Homosexualität, die ja in bestimmten Aspekten sogar strafbar war, weiterhin verboten sein, wenn ein solche System zuverlässig jede Überschreitung erkannt und verhindert hätte. Gesellschaftliche Liberalisierungen würden zumindest stark erschwert, wenn es nicht Freiräume für Überschreibungen und Missachtungen bestimmter bestehenden Regeln gib.

Außerdem finde ich, macht man es sich zu einfach, wenn man sagt, betrifft 99% der Menschen - also auch mich - nicht, also ist es ok. Man muss auch prüfen, was es für das eine Prozent bedeutet. Zum Beispiel für Leute, die sich aufgrund psychischer Erkrankungen "unnormal" verhalten. Selbst wenn diese nicht bestraft würden, wären sie doch Konsequenzen ausgesetzt und sei es nur, ständig das abweichende Verhalten erklären oder sich dafür rechtfertigen zu müssen.

Also automatisiere Verhaltenskontrolle ist für mich vollkommen unvereinbar mit einer liberalen Gesellschaft, der die freie Entfaltung ihrer Bürger selbst dann zulässt, wenn es hergebrachten gesellschaftlichen Normen nicht entspricht. Und so gesellschaftliche Entwicklung ermöglicht.

Und letzteres bräuchtest du um eine gesteuerte Konditionierung zu betreiben.

Nein, sehe ich genau andersherum. Wenn z.B. sicher gestellt wäre, dass zuverlässig nur schwer(st)e Straftaten erkannt werden würden, wäre das ein viel geringerer Eingriff in die freie Entfaltung der Persönlichkeit, durch die schwere Straftaten sowieso nicht legitimiert werden, als wenn jegliches abweichendes Verhalten gemeldet und im schlimmsten Fall geahndet werden würde.

herbivore

286 Beiträge seit 2011
vor 5 Jahren

Hallo herbivore,

ich picke mir mal den Punkt heraus, da ich deinen weiteren mit deiner Argumentation folgen kann und du damit imho auch Recht hast:

Wenn z.B. sicher gestellt wäre, dass zuverlässig nur schwer(st)e Straftaten erkannt werden würden, wäre das ein viel geringerer Eingriff in die freie Entfaltung der Persönlichkeit, durch die schwere Straftaten sowieso nicht legitimiert werden, als wenn jegliches abweichendes Verhalten gemeldet und im schlimmsten Fall geahndet werden würde.

Der eigentliche Punkt ist ja: Solche Systeme machen grundsätzlich Sinn und der tatsächliche Gradmesser ist wofür diese nun eingesetzt werden und wofür nicht. Du zeichnest ein sehr 1984iges Szenario indem jedes abweichende Verhalten registriert wird. Ich denke da will (hier im Forum) keiner hin und gerade mit Sicht auf aktuelle politische Strömungen bedarf dies sicher einer noch intensiveren Betrachtung.

Allerdings ist mein Ansatz eher, dass solche Systeme in einem makroskopischeren Zusammenhang Anwendung finden: z.B. wenn ein System, dass Verkehrsunfälle registriert und automatisch die Rettungskräfte alamiert würde ich ohne Einwände befürworten (technische Ausgereiftheit vorausgesetzt), wenn das gleiche System mir automatisch einen Ordnungsgeld gutschreibt, wenn ich bei Rot über die Ampel gehe würde ich dies ablehnen.

Und wo da die Grenze gezogen wird ist imho der eigentliche Kern der Diskussion. Daher finde ich es besonders wichtig, dass ein politischer & gesellschaftlicher Diskurs geführt wird und diese Entscheidungen nicht in irgendwelchen Konzernen getroffen werden (können).

Beste Grüße
emuuu

2+2=5( (für extrem große Werte von 2)

P
Palin Themenstarter:in
1.090 Beiträge seit 2011
vor 5 Jahren

Hallo emuuu,

natürlich muss/sollte ein politischer & gesellschaftlicher Diskus geführt werden und im Endeffekt muss ja die Politik Gesetze erlassen.

Hier hierfür muss aber erst mal betrachtet werden, was überhaupt (Technisch) möglich ist. Was als rahmen Bedingungen gegeben sein muss. Und welche positiven und als auch negative Auswirkung es haben wird.

Grundlegent geht es hier ja um Video Überwachung im öffentlichen Raum und sie Flächendeckend einzusetzen.

Eines der Hauptargumente dafür ist ja immer präventive Straftaten und Terrorrisstische Bedrohungen erkennen zu können. Meines Erachtens wird, das Video Überwachung alleine nie liefern können. Und es werden auf jeden Fall zusätzliche Informationen gebraucht werden, was gerne verschwiegen wird. Und diese müssen eigentlich auch für alle erfasst werden. Um ansatzweise effektive zu sein.

Dann wird auch noch meines Erachtens fälschlicher weise davon ausgegangen, das Terroristen an "abnormalen Verhalten" zu erkennen sind. In den meisten Fällen sind sie aber genau grade das nicht (würde es ja auch leicht machen sie zu erkennen). Meist ist es ja genau eher umgekehrt und sie sich in der der öffentlich usw. eher "Überdurchschnittlich" Normal verhalten.

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

5.657 Beiträge seit 2006
vor 5 Jahren

Hier mal ein praktisches Beispiel mit der Amazon-Gesichtserkennung:

Obwohl nur 20 Prozent der Mitglieder im Kongress farbig sind, lag der Anteil der im Test falsch zugeordneten schwarzen Personen bei 40 Prozent.

Die ACLU hat die Software mal an einigen Fotos von Kongress-Mitgliedern getestet. Das ist jetzt keine wissenschaftliche Untersuchung gewesen, sondern ein Publicity-Stunt, mit dem auf die Probleme mit dieser Art von automatisierten Überwachung hingewiesen werden sollte.

Es zeigt sich halt immer wieder, daß diese Art von KI immer genauso rassistisch, borniert und voreingenommen ist, wie diejenigen, die sie trainiert haben. Das hat man damals ja schon an diesem Microsoft-Chat-Bot gut erkennen können: Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day

Weeks of programming can save you hours of planning

P
Palin Themenstarter:in
1.090 Beiträge seit 2011
vor 5 Jahren

Am Berliner Bahnhof wurden ja jetzt Test zur Gesichtserkennung durchgeführt.
Hier mal was der CCC davon hält.
Biometrische Videoüberwachung: Der Südkreuz-Versuch war kein Erfolg

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

P
Palin Themenstarter:in
1.090 Beiträge seit 2011
vor 5 Jahren

Hier mal was von Microsoft zu dem Thema.
Spiegel:Microsoft warnt vor staatlicher Totalüberwachung

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

49.485 Beiträge seit 2005
vor 5 Jahren

Hallo Palin,

nur als Hinweis: die Warnung ist nicht ganz neu und weiter oben wurden schon zwei ähnliche Meldungen verlinkt und in späteren Beiträgen auch diskutiert. Der Unterschied ist wohl, dass Microsoft damals zunächst Probleme aufgezeigt und Fragen aufgeworfen hatte und nun den Zeitpunkt fürs Handeln gekommen sieht.

herbivore