Wie vielfältige Daten und ethische Praktiken verantwortungsvolles KI-Engineering vorantreiben
Karen Panettas Karriere als Ingenieurin führte dazu, dass sie kritische Vorurteile bei Gesichtserkennungssystemen erkannte und sich für eine transparente Technologie einsetzte, die das menschliche Wohlergehen schützt.
Von
- Esther Shittu, Nachrichtenautorin
- Shaun Sutner, Senior News Director
Veröffentlicht:01. Juli 2025
Der Weg zu Karen Panettas Ingenieurstudium begann mit dem Rat ihres Vaters, dass ihre Einkaufsgewohnheiten durch eine starke Finanzkarriere gestützt werden müssten.
Nachdem er einige Zeit damit verbracht hatte, Computer zu bauen und CPUs zu entwerfen, wollte der IEEE-Stipendiat und Dekan der Ingenieurausbildung an der Tufts University in die akademische Welt gehen. Sie erkannte jedoch, dass es im technischen Bereich ein großes Problem gab.
„Sie sagten:‚Wir stellen dich als Mentorin für Frauen ein‘, und als ich dann in meinen ersten Kurs kam, waren keine Frauen da“, erzählte Panetta in der neuesten Folge des Targeting AI-Podcasts von Informa TechTarget. „So wurde ich zufällig zum Mentor, Befürworter und Vorkämpfer dafür, ein integratives Publikum für die Technik zu begeistern.“
Diese Leidenschaft übertrug sich später auf die KI-Technologie, als sie begann, sich für die Rettung von Kindern vor Menschenhandel einzusetzen.
„Mir ist aufgefallen, dass alle Datensätze, die da draußen für die Gesichtserkennung trainiert wurden, direkt aufgenommen wurden und beide Ohren sichtbar waren“, sagte Panetta. „Die Datenbank stammte hauptsächlich aus People of Color- und Kriminaldatenbanken. Das war also so, als ob es da eine Voreingenommenheit gibt.“
Als Reaktion darauf erstellten Panetta und ihr Team eine vielfältige Datenbank mit Menschen aus aller Welt im Alter von 3 bis 78 Jahren. Die Bilder zeigen Menschen in unterschiedlichen Szenarien, entweder mit Sonnenbrille, Maske oder unterschiedlichen Kopfdrehungen.
„Mit sehr reinen Daten trainierte KI wird in der realen Welt nicht funktionieren“, sagte Panetta. „Die reale Welt lässt sich nicht automatisch auf KI übertragen.“
Panetta fügte hinzu, dass KI-Technologie auch ethisch sein muss, was bedeutet, dass sie weder Menschen noch ihren Lebensunterhalt schädigt.
„Wenn wir über ethische KI sprechen, sprechen wir darüber, wie wir sie sammeln, über die Rechte der Menschen und wie wir sie nutzen werden“, sagte sie.
Unterdessen geht es bei verantwortungsvoller KI darum, erklären zu können, warum das KI-System die Entscheidung getroffen hat, die es getroffen hat, sagte sie.
Esther Shittu ist Nachrichtenautorin und Podcast-Moderatorin bei Informa TechTarget und befasst sich mit KI-Software und -Systemen. Shaun Sutner ist Senior News Director für das Informationsmanagementteam von Informa TechTarget und treibt die Berichterstattung über KI, Analyse- und Datenmanagementtechnologien sowie große Technologie- und Bundesregulierungen voran. Er ist ein erfahrener Journalist mit mehr als 30 Jahren Erfahrung im Nachrichtenbereich. Gemeinsam berichten sie über den Targeting AI-Podcast.
Erfahren Sie mehr über KI-Technologien
-
11 reale Agenten-KI-Beispiele und Anwendungsfälle
Von:Mary Pratt
-
IBMs Unternehmens-KI-Vision für Anpassung und Zusammenarbeit
Von:Esther Shittu
-
Der CEO von Black Girls Code sagt, dass Vielfalt in der KI alle einbezieht
Von:Esther Shittu
-
Wie Cerebras im Wettbewerb mit Nvidia vorgeht
Von:Esther Shittu
Internet der Dinge-Technologie
- Die Einführung des Internets der Robotik beschleunigt die Dinge
- Umstieg auf drahtloses SCADA
- Öl- und Gas-Subsea-Technologie Der nächste Schritt
- Wie KI 0 % ungeplante Ausfallzeiten in Reichweite bringt
- Die Synergie von mobilem IoT und Bluetooth LE
- Ankündigung des OPC UA/DDS Gateway Standards
- Bucket of Challenges VS IoT in der Öl- und Gasindustrie
- So verwenden Sie maschinelles Lernen in der heutigen Unternehmensumgebung
- Memphis „smart“ machen:Sichtbarkeit, Kontrolle und Sicherheit für IoT-Geräte
- Ein virtuelles Va-va-Voom:Wie Service Provider echte Flexibilität erreichen und ein nachhaltiges Pay-as-you-grow-Modell einführen können