Mortgage

CFPB-Warnungen vor Voreingenommenheit in der KI könnten Kreditgeber erschrecken

Rohit Chopra hat als Direktor des Consumer Financial Protection Bureau fast jede öffentliche Gelegenheit genutzt, um Unternehmen vor dem möglichen Missbrauch künstlicher Intelligenz bei Kreditentscheidungen zu warnen.

Chopra hat gesagt, dass Algorithmen niemals „frei von Vorurteilen sein können“ und zu Kreditentscheidungen führen können, die gegenüber Verbrauchern unfair sind. Er behauptet, maschinelles Lernen könne wettbewerbswidrig sein und zu „digitalem Redlining“ und „Robo-Diskriminierung“ führen.

Rohit Chopra

Sarah Silbiger/Bloomberg

Die Botschaft für Banken und schnelllebige Fintechs ist laut und klar: Durchsetzungsmaßnahmen im Zusammenhang mit dem Einsatz von KI stehen bevor, ebenso wie potenzielle Leitlinien, die damit zusammenhängen, was alternative Daten wie Versorgungs- und Mietzahlungen riskant macht, wenn sie in Marketing, Preisgestaltung und Underwriting verwendet werden Produkte, sagen Experten.

„Der Fokus liegt eindeutig auf künstlicher Intelligenz und maschinellem Lernen“, sagte Stephen Hayes, Partner bei Relman Colfax PLLC und ehemaliger CFPB-Senior Counsel. „Aufgrund der wahrgenommenen Effektivität von KI haben Unternehmen diese Technologie manchmal auf eine Weise eingesetzt, die den Rechts- und Compliance-Leuten voraus war.“

Anfang dieses Monats twitterte Chopra: „Das @CFPB wird sich genauer ansehen, wie Kreditgeber künstliche Intelligenz oder algorithmische Entscheidungswerkzeuge einsetzen.“ Chopra bezog sich auf eine Situation, in der ein Kreditgeber gegen die Regeln der fairen Kreditvergabe verstieß, indem er Kirchen, die Kredite für kleine Unternehmen beantragten, unangemessene Fragen stellte; Die Angst ist, dass so etwas wie religiöse Vorurteile in KI-Tools programmiert werden könnten.

Das @CFPB wird sich eingehender damit befassen, wie Kreditgeber künstliche Intelligenz oder algorithmische Entscheidungshilfen einsetzen. Jede Institution, die diskriminiert, ob oder wie eine Person ihre Religion ausübt, muss mit Konsequenzen rechnen. https://t.co/qoMq7wQDKV

– Rohit Chopra (@chopracfpb) 14. Januar 2022

Er erwähnte KI auch ausdrücklich bei einer gemeinsamen Pressekonferenz mit dem Justizministerium im vergangenen Jahr über die Redlining-Vereinbarung der Bundesregierung mit der Trustmark National Bank in Jackson, Mississippi.

„Wenn Verbraucher und Regulierungsbehörden nicht wissen, wie Entscheidungen von den Algorithmen getroffen werden, können Verbraucher nicht an einem fairen und wettbewerbsorientierten Markt teilnehmen, der frei von Vorurteilen ist“, sagte Chopra.

Andere CFPB-Beamte haben sich ebenfalls zu KI geäußert.

In diesem Monat warnte Lorelei Salas, die stellvertretende Direktorin des Büros für Aufsichtspolitik, in einem Blogbeitrag, dass das CFPB plant, „den Einsatz von algorithmischen Entscheidungsinstrumenten genauer zu überwachen, da es sich oft um ‚Black Boxes‘ mit wenig Transparenz handelt“.

Und Eric Halperin, der neue Durchsetzungschef des CFPB, hielt im Dezember eine Rede vor der Consumer Federation of America, in der er vorschlug, dass einige Verwendungen von KI „unfaire, irreführende und missbräuchliche Handlungen und Praktiken“ darstellen könnten, die als UDAAP-Verstöße bekannt sind.

Dennoch widerspricht die Botschaft von Chopra – einem Biden-Kandidaten, der im Oktober vereidigt wurde – und seinen Leutnants den früheren Bemühungen der CFPB. Unter der Trump-Administration versuchte die CFPB, Innovationen zu fördern und regulatorische Unsicherheiten bei der Durchsetzung des Equal Credit Opportunity Act anzugehen, der Diskriminierung bei Kredit- und Kreditentscheidungen verbietet.

In einem Blogbeitrag aus dem Jahr 2020 ermutigten CFPB-Beamte die Kreditgeber, „kreativ darüber nachzudenken, wie sie die potenziellen Vorteile von KI nutzen können“. Das Büro gab auch Beispiele dafür, wie das CFPB eine sogenannte „Flexibilität“ bei der Verwendung von KI-Modellen durch Kreditgeber bieten würde.

Es gibt zwar einige Hinweise darauf, dass „alternative Daten“ – Informationen, die traditionell nicht in Kreditakten zu finden sind und von Verbrauchern bei Kreditanträgen nicht häufig bereitgestellt werden – Kreditgebern dabei helfen können, genaue Entscheidungen über Kreditvergabe und Kreditpreise zu treffen, aber es gibt auch Hinweise auf Voreingenommenheit.

Auch wenn Banken und Fintechs KI- und maschinelle Lernprojekte vorantreiben, von denen sie glauben, dass sie die Kreditvergabe auf mehr Verbraucher ausdehnen werden, erwarten viele ein hartes Durchgreifen.

„Das CFPB wird sich intensiv mit der Dokumentation von KI-Modellen befassen“, sagte Christopher Willis, Partner bei Ballard Spahr. „Es gibt Bemühungen, die Branche – und insbesondere die Fintech-Seite der Branche – zu warnen, nicht zu kreativ mit den Daten umzugehen, die sie erfassen und bei Kreditentscheidungen verwenden.“

Kritiker sehen Risiken in der Verwendung von KI in Bezug auf die Genauigkeit alternativer Daten, wie sie verwendet werden können, um bestimmte potenzielle Bewerber auszusortieren oder Bewerber für bestimmte Produkte zu überprüfen.

Befürworter von KI und maschinellem Lernen halten eine breite Akzeptanz für unvermeidlich, da Computer in der Lage sind, Menschen zu ersetzen und aus den Programmen und Daten zu lernen, mit denen sie gefüttert werden. Fintech und andere Befürworter von KI glauben, dass Computer auf der Grundlage von mehr Daten letztendlich bessere und genauere Kreditvergabeentscheidungen treffen werden.

„Das Büro konzentriert sich zu Recht auf die Risiken von KI und maschinellem Lernen, aber es sollte sich auch auf die potenziellen Vorteile konzentrieren“, sagte Eric Mogilnicki, Partner der Anwaltskanzlei Covington & Burling LLP.

Chopras Interesse an KI fällt mit den Bemühungen der Bundesbehörden zusammen, in den Griff zu bekommen, ob sie auf sichere und solide Weise verwendet wird und ob Finanzinstitute die Verbraucherschutzgesetze einhalten. Der Antrag ist eine gemeinsame Anstrengung der Federal Reserve, der Federal Deposit Insurance Corp., des Office of the Comptroller of the Currency, der National Credit Union Administration und der CFPB.

Viele Verbraucherschützer loben die Ausweitung der Kreditvergabe auf Verbraucher ohne oder mit unzureichender Bankverbindung. Es gibt jedoch Bedenken, dass Kreditnehmer gezielten Marketingkampagnen ausgesetzt sein könnten, die KI-Modelle verwenden.

Viele erwarten, dass die CFPB Unternehmen auffordern wird, eine faire Kreditanalyse der KI bereitzustellen, um sicherzustellen, dass sie transparent und leicht zu erklären ist.

„Jeder Einsatz neuerer Algorithmustechnologien wie maschinelles Lernen muss hinsichtlich seines Geschäftszwecks, seiner Genauigkeit und Transparenz gründlich dokumentiert und einer strengen Analyse der fairen Kreditvergabe unterzogen werden“, sagte Willis von Ballard Spahr.

Einige Experten schlagen vor, dass Finanzunternehmen auch prüfen müssen, wie traditionelle Daten verwendet werden.

„Ein Teil von (Chopras) Argument ist, dass noch traditionellere Daten auf eine Weise verwendet und manipuliert werden können, die bestehende Diskriminierung aufrechterhält“, sagte Hayes. „Dies ist ein Schuss vor den Bug, dass die CFPB möchte, dass Institutionen diese Probleme ernst nehmen, etwas Transparenz darüber schaffen, wie Modelle verwendet werden, und sich vor Diskriminierungsrisiken schützen.“

Related Articles