Folge 004: Racial Profiling

Folge 004: Racial Profiling

Intro (00:00:00)

Thema des Podcasts und der Folge (00:00:18)

Willkommen zu Folge 4 beim datenleben-Podcast!
Wir sind Helena und Janine und möchten mit euch die Welt der Daten erkunden.
Data Science ist ein vielseitiges Berufsfeld, das in nahezu alle Bereiche unseres Lebens hineinreicht.
Wir wollen mit euch den Effekt von Daten auf unser Leben genauer ansehen.

  • Der Begriff Racial Profiling wird aktuell viel diskutiert
  • Der Tod von George Floyd hat in den USA und international eine neue Welle von Protesten ausgelöst
  • Berichterstattung ebbt ab, aber das Thema Polizeigewalt gegen BIPoC bleibt und ist wichtig
  • Deswegen sehen wir uns das Thema Racial Profiling an und möchten verschiedene Aspekte bereden
  • Hierbei gucken wir vor allem auf die USA, wo das Thema seit Langem diskutiert und untersucht wird
  • Ein wichtiges Stichwort ist hier Predictive Policing
  • Das Thema ist nicht nur eines der USA, wir versuchen auch Seitenblicke auf Deutschland zu werfen
  • Hier ist gerade in den letzten Wochen das Thema Racial Profiling medial aufgegriffen worden
  • Insbesondere in der Debatte um die vom Innenministerium abgesagte Studie zu Racial Profiling bei der deutschen Polizei
  • Inzwischen ist erfolgreich eine ePetition beim Deutschen Bundestag eingereicht worden, die das Quorum von 50.000 Mitzeichnern überschritten hat
  • Damit wird sich der Bundestag mit dieser Petition für eine Racial Profiling Studie befassen müssen

Warum ist das Thema Racial Profiling wichtig? (00:02:19)

  • Disclaimer: Wir sprechen beide aus der weißen Perspektive
  • Finden das thema wichtig, weil uns klar sein muss, gerade als weiße, was um uns herum passiert
  • Wie immer werden wir das Thema aus Data Science-Sicht betrachten, darin liegtunser Kompetenzbereich
  • Was nicht in unserer Kompetenz liegt, ist die Perspektive der betroffenen Menschen
  • Daher möchten wir euch einfach unsere Linkliste ans Herz legen, wenn ihr darüber mehr hören möchtet
  • Bleibt die Frage: Was hat Racial Profiling mit Data Science zu tun?
  • Wir befassen uns in dieser Folge nicht so sehr mit konkreten Daten
  • Sondern eher damit, wie die Daten erhoben werden und sich das auf die Praxis auswirkt
  • Wichtig ist: Woher kommen die Daten, wie entstehen sie, getreu dem Motto "Kenne Dein Messverfahren"

Einspieler: Racial Profiling und Predictive Policing (00:04:00)

  • Fangen wir bei der Frage an, was Racial Profiling eigentlich ist.
  • Als Racial Profiling bezeichnet man das Vorgehen, wenn Polizei-, Sicherheits-, Einwanderungs- und Zollbeamt*innen jemanden als verdächtig einschätzen, weil ein Mensch aufgrund ethnischer Merkmale, der Religionszugehörigkeit oder seiner Nationalität auffällt und nicht, weil es einen konkreten Verdacht gegen diese Person gibt.
  • Geprägt wurde der Begriff in der Kriminalistik der Vereinigten Staaten
  • Racial Profiling ist aus guten Gründen verboten, z.B. in den USA, Großbritannien und anderen Ländern
  • In Deutschland verstößt Racial Profiling gegen das Grundgesetz (Art. 3 Abs. 3 GG.) und das Allgemeine Gleichbehandlungsgesetz (AGG).
  • Und gegen die Europäische Menschenrechtskonvention und die internationalen Anti-Rassismus-Konvention
  • Warum ist Racial Profiling so ein großes Thema ist, wenn es eigentlich verboten ist?
  • In Deutschland kein explizites Verbot, aber implizit Handlungsspielräume für Racial Profiling
  • Und hier kommt auch das Stichwort Predictive Policing zum Tragen, die Vorhersagende Polizeiarbeit
  • Kurzer Ausflug in die Science-Fiction: Der Minderheiten-Bericht von Philip K. Dick, eine Kurzgeschichte aus dem Jahr 1956
  • Behandelt das Thema der Verbrechensbekämpfung basierend auf Visionen über zukünftige Ereignisse
  • Straftaten werden seltener begangen, weil die Verbrecher vorher verhaftet werden können
  • Philip K. Dick nimmt in seiner Erzählung bereits wesentliche Problematiken vorweg
  • Kann jemand schuldig sein, der nichts getan hat? Wie sehr ist das System dahinter vorgeprägt?
  • Diese Frage muss sich auch das Predictive Policing gefallen lassen
  • Dabei wird aus den Daten die Wahrscheinlichkeit für zukünftige Straftaten berechnet.
  • Auf dieser Berechnung können dann Polizeieinsätze koordiniert werden
  • Warum ist Predictive Policing aber beim Thema Racial Profiling relevant?
  • Das hat vor allem damit zu tun, wie stark Rassismus in unseren Gesellschaften verankert ist.
  • Man spricht hierbei vor allem von strukturellem oder auch institutionellem Rassismus
  • Racial Profiling entsteht dort, wo Menschen oder Maschinen von unüberprüften Vorannahmen ausgehen
  • Daten aus der Vergangenheit, die wir dafür heranziehen, müssen also genau angesehen werden

Struktureller Rassismus als Grundlage von Racial Profiling (00:09:23)

  • Rassismus ist für Betroffene nicht nur psychisch belastend, sondern bedroht auch ihr Leben
  • Beispiel aus den USA: BIPoc mit Diabetes sind häufiger von Amputationen betroffen
  • Weiteres sehr aktuelles Beispiel aus den USA: Schwarze sterben in Amerika häufiger an Covid-19
  • Und das Ganze steigert sich so weit, dass Schwarze häufiger durch die Polizei getötet werden
  • Die Washington Post erfasst seit 2015 alle Fälle von durch die Polizei getöteten Menschen
  • In absoluten zahlen, hat es vor allem weiße Menschen getroffen
  • Anders sieht es aus, wenn man sich aber Bevölkerungsanteile ansieht, demnach sind:
  • 31 Schwarze/Million Schwarze, 23 Hispanic/Million Hispanic, 13 Weiße/Million Weiße, 4 "Andere"/Million "Andere" getötet worden
  • Zeigt sehr deutlich einen vorhandenen strukturellen Rassismus für Polizeigewalt in den USA
  • Deswegen schauen wir auch besonders auf die USA, da ist das Thema lange präsent und untersucht
  • Deswegen hätten wir es gut gefunden, wenn die Studie vom Innenministerium nicht abgesagt worden wäre
  • Struktureller Rassismus ist eine Grundbedingung für Racial Profiling und Polizeigewalt
  • Wie es dazu kommt, wurde in ihrem Sammelband zum Thema Racial Profiling sehr gut auf den Punkt gebracht:
  • Meinung: Racial Profiling stützt sich auf körperliche, religiöse oder kulturelle Unterschiede
  • Aber: Mithilfe von Racial Profiling werden Praktiken der Rassifizierung legitimiert und normalisiert
  • Racial Profiling ist: struktureller Rassismus, Alltagsrassismus, Produktion und Reproduktion von Rassismus durch institutionelle Praktiken des Rechtsstaats.
  • Und wie verhält es sich jetzt aber in der Realität mit Racial Profiling?

Wie verschlimmert Predictive Policing Diskriminierungen? (00:13:51)

  • Studie aus März 2019 der New York University School of Law and NYU’s AI Now Institute
  • Besagt: Predictive Policing hat ein großes Risiko bestehnde Diskriminierungen noch zu verschlimmern
  • Grund: Predictive Policing Systeme werden mit dirty data gefüttert
  • Es gibt in den USA viele Jurisdiktionen in denen die Polizeiarbeit voreingenommen ist
  • Voreingenommen wird auch in den Statistiken gerne als biased bezeichnet
  • Voreingenommenheit bezieht sich hier auf bestimmte Gruppen
  • Beispiel: Polizei Chicago versucht Opfer/Täter von Tötungsdelikten oder Schießereien vorherzusagen
  • Ergebnis: Es sind die Gruppen betroffen, gegen die die Polizei vorher schon voreingenommen war
  • Wie wirkt sich Voreingenommenheit aus?
  • Angenommen es gibt 3 Plätze in einer Stadt, auf denen gleich viel Kriminalität passiert
  • Hat die Polizei ein Vorurteil bzgl. eines Platzes, kontrolliert diesen daher mehr
  • So wird sie dort mehr Kriminaliät entdecken als auf den anderen Plätzen
  • Wenn mehr entdeckt wird, taucht auch mehr in der Statistik auf
  • Das Predictive Policing System soll jetzt auf diesen Statistiken Vorhersagen treffen
  • Ergebnis wird sein: Platz hat mehr Kriminalität, sollte häufiger kontrolliert werden
  • Und das lässt sich genauso auf Racial Profiling anwenden
  • Zum Beispiel wenn dieser Platz in einem Wohnviertel liegt, in dem vor allem Schwarze Menschen leben
  • Wie verschlimmert Predicitve Policing dann bestehende Diskrimienierung?
  • Polizeiarbeit konzentriert sich stärker auf diesen Platz, Vorhersage führt zu mehr Kontrollen
  • Verlagert sich dann nicht die Kriminalität zu anderen Plätzen wechseln? Hebt sich das nicht auf?
  • In dem Moment wo es ganze Wohngebiete betrifft, greift das nicht, das Gebiet ist zu groß
  • Korruptes Vorgehen der Polizei ist ebenfalls ein Thema bei dirty data
  • Verhält sich die Polizei an einem Ort korrupt, überträgt sich das auch in die vorhandenen Daten
  • Somit werden Menschen die ohnehin unter der Korruption zu leiden haben, noch weiter diskriminiert
  • Fazit: Bei Predictive Policing Systemen, muss man sich fehlerhafter Eingangsdaten bewusst sein

Was ist der Implicit Racial Bias? (00:20:01)

  • Dissertation über Racial Profiling in Deutschland verweist auf Implicit Racial Bias als eine Grundbedingung von Racial Profiling
  • Beispiel darin: Eine vom Psychologen Joshua Corell entwickelte Testreihe, die 2002 publiziert wurde
  • Experimente: Videosimulation, in der auf eine Person entweder geschossen oder nicht geschossen wird
  • Inhalt: Gezeigt wird eine unbewaffnete Person mit harmlosen Gegenstand oder eine bewaffnete Person
  • Die gezeigten Personen sind entweder Schwarz oder weiß
  • Ergebnis: Es wird eher auf Schwarze unbewaffnete, als auf weiße bewaffnete Personen geschossen
  • Auch dann, wenn der Proband selber Schwarz war
  • Erklärung: Schwarze Teilnehmer sind als "Teil der US-amerikanischen Gesellschaft"
  • Sie sind den gleichen negativen Stereotypen ausgesetzt und übernehmen den Implicit Bias
  • Auswirkung des Implicit (Racial) Bias
  • Ein Schwarzer Mensch wird fünfmal so oft grundlos von der Polizei angehalten wie ein weißer Mensch
  • Schwarze haben eine doppelt so hohe Wahrscheinlichkeit, verhaften zu werden wie weiße Menschen

Wie wirken sich Personenbezogene Vorhersagen aus? (00:22:41)

  • Vorhin im Beispiel bezog sich Predictive Policing auf Orte
  • Das Beispiel der Polizei Chicago bezog sich aber auf ein andere Variante für Vorhersagen auf Basis:
  • Von Alter, Geschlecht, verheiratet/ledig, Drogenerfahrungen, bereits kriminell auffällig oder nicht
  • Es ist explizit in den USA verboten die Hautfarbe, bzw. "race" (Begriff nicht 1:1 ins Deutsche übersetzbar) zu erfassen
  • Aber: Dieser Aspekt ist trotzdem in den anderen Punkten codiert
  • Kontrolliert man Schwarze Jugendliche häufiger auf Drogen, werden sie häufiger damit erwischt
  • Damit tauchen sie auch häufiger in der Statistik auf, als weiße Jugendliche
  • Selbst wenn Schwarze Jugendliche insgesamt seltener Drogen nehmen, werden sie häufiger erwischt
  • Wer in der Statistik steht, wird dann auch öfter persönlich von Predictive Policing betroffen sein
  • Bei einem Verhältnis von 5:1 werden Schwarze stärker in der Statistik auffallen, auch wenn Weiße doppelt so oft kriminell sind.
  • Beispiel: Polizei Chicago nutzte personenbezogene Vorhersagen, für Gefährdergespräche
  • Wenn eine so vorgewarnte Person später tatsächlich straffällig wurde, fiel das Strafmaß höher aus
  • Auch, wenn der Grund des Gefährdergesprächs ein anderer Sachverhalt war, als die begangene Straftat
  • Auch das ist ein Beispiel für sich verstärkende Diskriminierung durch Predicdiv Policing
  • Müssen uns bewusst sein, dass die Systeme zu missbräuchlichen Schlüssen führen können
  • Das führt hier dazu, dass jemand zusätzlich für etwas bestraft wird, das er nicht getan hat
  • Fazit: Predictiv Policing verstärkt Diskriminiering weiter, wenn die Systeme auf Basis bisheriger Polizeiarbeit trainiert werden
  • Heißt auch: Aktuell kann Predictive Policing nicht objectiver sein, als der Mensch selbst

Algorithmen und Entscheidungen über Haftentlassungen (00:27:05)

  • Predicitve Policing ist auch die Basis für Entscheidungsfindung bei (vorzeitigen) Haftentlassungen
  • Die Entscheidungen bauen auch auf Daten aus der Polizeiarbeit auf, daher hier das gleiche Problem
  • Haftentlassungen sind an zwei Punkten interessant:
  • 1. Personen auf Kaution freilassen, 2. verurteilte Person frühzeitig aus der Haft entlassen
  • Kaution: In Cook County/Illinois haben Richter 30 Sekunden, für die Entscheidung Kaution vs. Haft
  • Bei so wenig Zeit pro Fall, ist die Wahrscheinlichkeit hoch, dass einer computergestützten Entscheidung über Wahrscheinlichkeiten blind vertraut wird
  • Es bleibt keine Zeit darüber nachzudenken, ob der vorliegende Fall vielleicht anders aussieht
  • Haftentlassungen: Hierzu werden in einigen Jurisdiktionen der USA bereits Systeme verwendet
  • Idee: Man entlässt Personen mit geringer Wahrscheinlichkeit wieder straffällig zu werden früher
  • Beispiel: Es wird behauptet ein System im Bundesstaat Washington lag in 70% der Fälle richtig
  • Personen mit einem geringen Rückfälligkeitsrisiko wurden zu 10% wieder straffällig
  • Personen mit einem hohen Rückfälligkeitsrisiko wudren zu 47% wieder straffällig
  • Moralische Frage: Wenn weniger als die Hälfte der Personen, denen ein hohes Risiko bescheinigt wird, wieder straffällig werden, wie ist es dann zu rechtfertigen, dass die Mehrheit der Personen dafür bestraft wird, was andere tun, indem sie Länger im Gefängnis verbleiben?
  • Weiterer Kritikpunkt: Der Algorithmus ist nicht transparent
  • Datengrundlage und Entscheidungsfindung sind von außen nicht nachvollziehbar
  • Wie kann man dann Entscheidungen auf dieser Grundlage rechtfertigen, vernünftig begründbar?
  • Wichtig wäre: beim Einsatz eines solchen Systems das ganze Verfahren transparent zu machen

Will man so einen Algorithmus überhaupt haben? (00:32:18)

  • Haben ja gesehen, dass es auch mit Bewusstsein über Implicit Bias schwer ist, ihn rauszuhalten
  • Wenn das aber die Grundlage ist, wie kann so ein System dann sinnvoll funktionieren?
  • Wenn man davon ausgeht, dass man eine neutrale Datengrundlage hat und einen nachvollziehbaren Algorithmus, würde dieser dann nicht bessere Entscheidungen treffen als der Mensch?
  • Was hieße nachvollziehbarer Algorithmus aber überhaupt, wenn es um maschinelles Lernen geht?
  • Neuronale Netze: Ungeeignet, da sie langfristig nicht nachvollziehbar zu Entscheidungen kommen
  • Entscheidungsbäume: Bilden eine nachvollziehbare Entscheidung ab
  • Nachvollziehbare Entscheidungen sind wichtig, um gegen Entscheidungen Einspruch einlegen zu können
  • Weil ein System vielleicht doch noch/wieder einen Bias haben kann
  • Problem: Verbreitete Einstellung zu Computern: Der Computer sagt etwas, also hat er recht
  • Könnte auch beim Predictive Policing zum Problem werden: Man schiebt die Antwortung von sich weg
  • Andere sagen, man sollte in solchen Systemen den Bias aktiv einführen, zum Beispiel "race"
  • Das soll für einen Ausgleich in der Entscheidungsfindung sorgen, aber das kann auch schwierig werden
  • Vorschlag ist: Wenn Schwarze Menschen 5x so häufig kontrolliert werden, setzt man Werte anders
  • Beispiel: Wahrscheinlichkeiten werden bei weißen mit 70% und mit Schwarzen mit 90-95% angegeben
  • So könnte Faktor des Racial Bias ausgleichen
  • Funktioniert aber nur, wenn vorher der Racial Bias auch analysiert wurde und bekannt ist
  • Ist das so möglich? Dürfte man das überhaupt machen? (Stichwort: Gleichheit der Menschen)
  • Schwierig einzuschätzen, wie sich das in der rechtlichen Situation jeweils darstellen lässt
  • Aber Gedanken darüber und mögliche Konsequenzen dazu zu betrachten, ist wichtig

Kurzer Blick auf Deutschland (00:40:42)

  • Wir haben uns bisher hauptsächlich auf Amerika bezogen, weil das Thema dort sehr groß ist
  • Und das mussten schon viel zu viele Menschen selbst erfahren
  • Die Auswirkungen sind sehr drastisch für das gesamte Leben und sind immer wieder sehr erschreckend
  • Das heißt aber nicht, dass es das in anderen Ländern nicht gibt
  • Struktureller Rassismus und Racial Profiling wird auch in Deutschland erlebt
  • Weil wir darüber aus Betroffenensicht nicht sprechen können und uns das auch nicht anmaßen wollen
  • haben wir eine kleine Sammlung von weiteren Quellen, Artikeln und Podcasts zusammengestellt
  • Besonders hervorheben möchten wir hier aber trotzdem zwei Beispiele aus dem Alltag
  • Kontrollen im Zug: Am 7. Juli berichtete der Bundestagsabgeordnete Karamba Diaby, dass er zusammen mit einer weiteren Schwarzen Person im Zug nach seinem Ausweis kontrolliert wurde, aber keine einzige weiter Person im Wagon kontrolliert wurde
  • Typisches Beispiel für Racial Profiling in Deutschland
  • Wer auf Twitter ist, kann unter #RacialProfiling leider viele weitere Beispiele finden
  • Kontrollen auf Plätzen: Barakat H. wird als Anwohner seit Jahren in St. Pauli regelmäßig von der Polizei kontrolliert
  • Einige Polizisten kennen ihn bereits mit Namen und lassen es dennoch nicht
  • Es gibt bereits eine gerichtlich erwirkte Dienstanweisung, die diese Kontrollen untersagt
  • Dennoch finden sie weiterhin statt

Wie wirkt sich Racial Profiling auf Betroffene aus? (00:43:42)

  • Ständige Kontrollen oder die Angst davor hat Folgen und ist belastend
  • Darauf macht die Bundeszentrale für Politische Bildung in einem kurzen Dossier zum Thema aufmerksam:
  • Öffentliche Demütigung, physische und psychosoziale Verletzungen und Krisen
  • Racial Profiling beansprucht viel Zeit und Energie, produziert psychischen und körperlichen Stress
  • Wird von vielen Betroffenen als Gewalt erlebt, kann langanhaltende psychische Belastungen auslösen
  • Es gibt keine unabhängigen Beschwerdestellen
  • Wie kommt es immer wieder dazu, wo es doch gegen verschiedene Gesetze und Konventionen verstößt?
  • Ein Grund: Es gibt gesetzlichen Bestimmungen, die den agierenden Institutionen Befugnisse einräumen
  • Diese können im Sinne des Racial Profiling diskrimminierend eingesetzt werden
  • Anlasslose Kontrollen, die auf äußerlichen Merkmalen oder Orten wie Ländergrenzen beruhen
  • Dazu eine Studie vom Deutschen Institut für Menschenrechte, die von Hendrik Cremer durchgeführt wurde
  • "Racial Profiling" – Menschenrechtswidrige Personenkontrollen nach § 22 Abs. 1 a Bundespolizeigesetz
  • Zum Beispiel wird dort explizit festgehalten:

Dass die Bundespolizei im Rahmen von § 22 Abs. 1 a BPolG diskriminierende Personenkontrollen vornimmt, dass es zu grund- und menschenrechtswidrigem Verhalten kommt, liegt vor allem in der Norm selbst begründet. Die Norm ist darauf angelegt, dass die Bundespolizisten anhand von Pauschalverdächtigungen selektive und damit rassistische Personenkontrollen vornehmen.

  • Diese Studie empfiehlt daher auch die Streichung von 22 Abs. 1a BPolG.
  • Es wird empfohlen, dass dieses Thema in der Ausbildung der Polizei eine größere Rolle spielen soll

Fazit: Sei ein antirassistischer Data Scientist (00:47:07)

  • Schlagworte dieser Folge waren also: Racial Profiling, struktureller Rassismus, Predictive Policing
  • Es ist eindeutig, dass bestimmte Gruppen von Menschen auf eine Art und Weise benachteiligt sind, die diskrimminierend, rassistisch und lebensbedrohlich ist.
  • Sind deswegen aber die Daten rassistisch und diskriminierend? Nein. Es ist der Mensch.
  • Der Mensch, die die Strukturen geschaffen hat, in denen die Daten erhoben und interpretiert werden
  • Er interpretiert die Daten entsprechend seiner Gewohnheiten, Sozialisation oder seiner Überzeugungen
  • Auf dem Weg in eine Zukunft mit Big Data müssen wir diese Strukturen abschaffen
  • Daten sind ein Werkzeug und Werkzeuge können missbraucht – aber auch positiv eingestetzt werden
  • Daten könnten sogar helfen, Diskriminierung zu beenden, indem sie aufzeigen wo es strukturelle Diskriminierung gibt
  • Erst, wenn uns diese Strukturen auffallen, können wir sie verhindern
  • Es gilt, wie in jeder Folge: Kenne Dein Messverfahren.
  • Das heißt hier vor allem: Kenne die Geschichte der Daten und lerne mit ihr umzugehen.
  • Was können Data Scientists tun, um dagegen vorzugehen, dass Daten diskriminierend verwendet werden
  • Artikel auf Towards Data Science: 5 Steps to Take as an Antiracist Data Scientist
  • Data scientists sind Datenverwalter: sie sammeln, speichern, transformieren und visualisieren Daten
  • Mit ihrer Tätigkeit haben sie auch einen Einfluss darauf, wie die Daten benutzt werden
  • Nicht-Schwarze Data Scientists sollten, nicht nur nicht rassistisch, sondern antirassistisch sein
  • Bedeutet: aktiv zu werden, sich seiner Verantwortung bewusst werden und Wandel unterstützen
  • Die 5 Schritte, die empfohlen werden
  • 1. Privilegien und tradierte Einstellungen erkennen, ändern und aktiv gegen Rassismen vorgehen
  • 2. Lernen, wie Daten und Algorithmen benutzt werden, um Rassismus zu verfestigen
  • 3. Eigene Arbeit hinterfragen und rassistische Entscheidungen und Algorithmen vermeiden
  • Beispiel: Sammlung an Fragen anzulegen, die man sich standardmäßig bei neuen Projekten stellt:
  • Wie wurden die Daten gesammelt? Lag eine Erlaubnis für die Datensammlung vor? Zu welchem Zweck?
  • Welcher Bias steckt in den Daten? Erzeugen sie einen neuen Bias? Wie werden Ergebnisse verstanden?
  • 4. Diversität im Berufsfeld Data Science fördern:
  • Anonymisierte Einstellungsprozesse, Fördermöglichkeiten, Führungspositionen divers besetzen
  • 5. Finanzielle Förderung an Organisationen spenden, die Data Awareness betreiben, Diversität fördern
  • Diese Schritte lassen sich auf anderen marginalisierten Gruppen und andere Berufsfelder übertragen
  • Dabei ist auch klar, dass nicht jeder in der Position ist alle diese Schritte umzusetzen
  • Aber sich das bewusst zu machen, kann auch schon eine große Hilfe sein, Handlungsspielräume zu sehen
  • Für einen Weg zu einer diversen Gesellschaft, damit andere nicht weiter ausgrenzt, sondern räume geöffnet werden, die bisher verschlossen sind

Nächstes Thema: Wetterprojekt am 26.09.2020 (00:53:32)

  • Beim Thema Predicitve Policing ging es jetzt auch schon um Wahrscheinlichkeitsaussagen
  • Wie man eigentlich Wahrscheinlichkeiten interpretieren kann, wird u.a. Thema der nächsten Folge
  • Thema: Wetterprojekt von Helena und Rebecca zur Darstellung von Wettervorhersagen
  • Wie läuft so ein Projekt? Zusammenarbeit, Designprozess, Konzeptentwicklung, Wahrscheinlichkeiten
  • Rebecca wird dazu als Gast in unserem Podcast zusammen mit Helena vom Projekt berichten

Call to Action (00:54:54)

  • Wenn ihr uns weiter hören möchtet, folgt uns auf Twitter unter @datenleben
  • Oder besucht unsere Webseite: www.datenleben.de
  • Hinterlasst gerne Fragen, Themenvorschläge oder Feedback
  • Ausserdem würden wir uns auch freuen, wenn jemand Lust hat unseren Podcast auf iTunes zu bewerten

Outro (00:55:37)

Schlagworte zur Folge

Racial Profiling, Predictive Policing, struktureller Rassismus, Betrachtung von Wahrscheinlichkeiten, dirty data

Quellen

Weiterführende Links


One Reply to “Folge 004: Racial Profiling”

  1. Wow, als ich vor einigen Monaten den Jingle für euch komponiert habe, dachte ich „Spannender Podcast“, aber nicht dass es so politisch wird! Habe jetzt erst die ersten Folgen hören können und wollte euch aber unbedingt für diese tolle, nachdenkliche und spannende Arbeit danken! Macht weiter so, ich freue mich schon darauf, was weiter zu hören gewesen sein wird!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert