La startup technologique FairPlay vise à éliminer les biais de prêt avec l’IA | banquier américain

Alors que l’examen réglementaire des pratiques de prêt des banques s’intensifie, une startup fait la promotion d’un logiciel d’intelligence artificielle visant à aider les banques à éliminer les biais intégrés à leurs systèmes de prêt automatisés.

Kareem Saleh, PDG de FairPlay, a déclaré que son travail au fil des ans avec les banques sur les prêts équitables l’avait laissé désillusionné et l’avait motivé à trouver un moyen de défaire les mauvaises pratiques.

Alors que de plus en plus de décisions de prêt sont prises par des algorithmes, les consommateurs – en particulier les milléniaux et la génération Z – vont exiger que ces décisions soient prises de manière équitable, déclare Kareem Saleh, PDG et co-fondateur de FairPlay.

« La plupart des personnes employées dans le cadre de la conformité équitable des prêts ne rendent pas les pratiques de prêt de leurs institutions plus équitables », a déclaré Saleh, ancien vice-président exécutif de la société de logiciels de souscription de crédit Zest AI. « Ils essaient juste de trouver des justifications intelligentes pour l’injustice. »

Lundi, FairPlay, basé à New York – que Saleh a cofondé avec un autre ancien de Zest, John Merrill – a annoncé qu’il avait levé 4,5 millions de dollars en financement d’amorçage de Third Prime Capital, avec la participation de FinVC, TTV, Financial Venture Studio, Amara et Nevcaut. Aventures.

L’investissement arrive près de la fin d’une année au cours de laquelle les régulateurs de la nouvelle administration Biden ont mis en lumière les problèmes de discrimination en matière de prêts et les banques ont cherché à répondre aux appels persistants à l’échelle nationale en faveur d’une plus grande inclusion et d’une équité raciale.

La semaine dernière, la Federal Reserve Bank de Philadelphie a publié un rapport selon lequel les hommes reçoivent en moyenne des limites de carte de crédit supérieures de plus de 1 323 $ à celles des femmes ayant des revenus et des cotes de crédit comparables. En octobre, le ministère de la Justice a annoncé le lancement d’une initiative de lutte contre la redlining, affirmant qu’elle « représente l’effort d’application le plus agressif et le plus coordonné du ministère pour lutter contre la redlining ». Le même jour, plusieurs agences gouvernementales ont annoncé un règlement de 9 millions de dollars avec la Trustmark National Bank, un actif de 17 milliards de dollars, à Jackson, dans le Mississippi, suite à des allégations selon lesquelles les quartiers à prédominance noire et hispanique de Memphis, dans le Tennessee, auraient été délimités. Le ministère de la Justice a annoncé un règlement similaire avec Cadence Bancorp, un actif de 18,7 milliards de dollars, en août.

FairPlay démarre avec deux outils logiciels de prêt équitable, présentés sous forme d’interfaces de programmation d’applications que les banques peuvent utiliser avec les programmes de prêt existants. La première, Fairness Analysis, analyse le logiciel de prêt existant d’une banque à la recherche de signes de discrimination. Il essaie de répondre à cinq questions : mon algorithme est-il juste ? Si non, pourquoi pas ? Comment cela pourrait-il être plus juste ? Quel est l’impact économique pour l’entreprise d’être juste? Et, est-ce que les candidats qui sont rejetés font l’objet d’un deuxième examen pour voir s’ils pourraient ressembler à des emprunteurs privilégiés ?

« Cela nous permet d’automatiser cette analyse de prêt équitable de manière à rendre la détection des biais rapide, facile à comprendre et abordable », a déclaré Saleh. « Lorsque nous trouvons des disparités, nous pouvons réellement faire quelque chose pour les corriger. »

La deuxième API, Second Look, réévalue les demandes de prêt refusées en utilisant des informations plus complètes sur les emprunteurs des classes protégées et différentes techniques de modélisation pour voir si elles ressemblent à des emprunteurs solvables.

« Lorsque nous faisons cela, nous constatons que les emprunteurs noirs, bruns et féminins les mieux notés qui sont refusés fonctionnent aussi bien que les hommes blancs les moins bien notés qui sont approuvés », a déclaré Saleh.

Le logiciel extrait les données du recensement et la méthodologie de proxy que le Consumer Financial Protection Bureau utilise pour évaluer si les prêteurs se conforment aux lois sur les prêts équitables. Ces techniques aident à reconnaître les emprunteurs dans les classes protégées, même lorsqu’une banque n’est pas autorisée à collecter des informations sur la race, l’âge et d’autres facteurs.

Le logiciel a été formé à l’aide de données historiques provenant d’autres prêteurs pour détecter les comportements de classes sous-représentées qui pourraient sembler différentes des emprunteurs auxquels une banque a prêté dans le passé. Par exemple, l’algorithme a appris que les femmes peuvent avoir un emploi irrégulier entre 25 et 45 ans. Bien que ce soit un signal d’alarme de solvabilité pour les emprunteurs masculins, ce n’est pas nécessairement pour les femmes, qui sont plus susceptibles de faire des pauses pour élever des enfants.

« Le résultat est que les prêteurs peuvent augmenter leurs taux d’approbation des candidats noirs, bruns et féminins, parfois de l’ordre de 10% à 30% », a déclaré Saleh. Cela peut conduire à un meilleur respect des règles de prêt équitable et à une rentabilité globale accrue, a-t-il déclaré.

Le logiciel pourrait aider les banques à surmonter les impacts disparates, a déclaré Venkat Varadachary, ancien directeur des données chez American Express et actuel PDG de la société d’automatisation de l’IA Zenon.

« Cela peut aider de nombreuses banques de taille moyenne et petite à faire des choses qu’elles ne sont tout simplement pas en mesure de faire techniquement », a-t-il déclaré, car elles disposent de logiciels plus anciens et manquent de main-d’œuvre pour analyser chaque prêt en termes d’équité.

Un logiciel de conformité pour les prêts équitables existe depuis un certain temps. Wolters Kluwer a eu Fair Lending Wiz, qui analyse les données de prêt et de demande pour aider à identifier les disparités potentielles qui pourraient indiquer une discrimination pendant plus de deux décennies. Matt Marek, directeur principal de la gestion des produits technologiques pour Wolters Kluwer Compliance Solutions, a déclaré avoir constaté une légère augmentation de l’intérêt cette année.

« Nous avons certainement beaucoup de demandes de renseignements », a-t-il déclaré. « Nous avons beaucoup de conversations. »

La principale différence entre FairPlay et ses concurrents, selon Saleh, est sa capacité à souscrire à nouveau des prêts refusés en utilisant des informations sur les personnes des classes protégées de race, de sexe, d’origine nationale, d’état matrimonial, d’affiliation militaire et de handicap qui sont sous-représentées dans le crédit. rapports et notes du bureau.

Compte tenu de la façon dont FairPlay achemine les demandes de refus vers un modèle de second regard, les banques n’ont pas à supprimer et à remplacer les logiciels de décision de prêt existants, a-t-il déclaré. Et FairPlay peut être utilisé par des personnes non techniques dans des domaines tels que le droit et la conformité, a-t-il déclaré.

Alors que de plus en plus de décisions de prêt sont prises par des algorithmes, les consommateurs – en particulier les milléniaux et la génération Z – vont exiger que ces décisions soient prises de manière équitable, a déclaré Saleh. Les régulateurs exigeront la même chose, a-t-il déclaré.

Figure, un prêteur en ligne basé à San Francisco qui propose des marges de crédit sur valeur domiciliaire, des refinancements hypothécaires, des prêts personnels non garantis et un produit de crédit acheter maintenant/payer plus tard, utilise FairPlay pour surveiller et tester ses prêts personnels non garantis pour une conformité de prêt équitable.

Lorsqu’il était examinateur bancaire, le responsable de la conformité, Rory Birmingham, a déclaré avoir vu « à quel point les grandes agences de conseil peuvent être coûteuses et parfois inutiles pour des prêts équitables. Cela se transforme en fiançailles et prend une éternité. » Il aimait l’idée de pouvoir doter son équipe interne d’un logiciel de suivi et de test des prêts.

Les modèles d’apprentissage automatique peuvent être difficiles à tester, a déclaré Birmingham, car ils apprennent constamment et prennent en compte de nouveaux facteurs.

« Il est vraiment difficile de se passer de la bonne technologie », a-t-il déclaré. « FairPlay a été conçu pour cette nouvelle vague de modèles de souscription et de tarification », a déclaré Birmingham. « Il utilise le même type de technologie d’IA que notre [loan decision] modèle utilise.

Après des décennies de prise de conscience de la discrimination en matière de prêt, on pourrait penser qu’à l’heure actuelle, les prêteurs seraient au courant de ce problème.

Varadachary a souligné que même les modèles de décision de prêt qui ont été soigneusement examinés pour déceler les biais peuvent avoir un impact disparate pour de multiples raisons, y compris les données limitées disponibles pour les personnes ayant un dossier de crédit mince.

« Si vous ne souscrivez que certaines populations, lorsque vous voyez une nouvelle population, vous n’êtes pas très doué pour souscrire la nouvelle population », a déclaré Varadachary. « Historiquement, les personnes issues de milieux défavorisés se sont vu refuser le crédit et il n’y a pas assez de données ou d’informations sur ces personnes pour leur accorder un crédit. Tout le système est truqué contre eux.

« Où est le biais dans le système ? C’est partout », a déclaré Varadachary.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *