Offenheit wie Schlüssel
Zum Besten von Andreas Krause, Professor pro Informatik und Vorsteher des ETH AI Center, ist Offenheit ein Schlüssel zum Vertrauen: «Wir KI-Forschende können Vertrauen nicht erzwingen. Wir können Transparenz schaffen, während wir die verwendeten Information offenlegen und verdeutlichen, wie die KI-Modelle entwickelt werden.» Krause erforscht neue Ansätze, die Unsicherheiten in KI-Modellen einschätzen können, damit solche besser wiedererkennen, welches sie nicht wissen. Die Einschätzung solcher Unsicherheiten ist wichtig pro dasjenige Vertrauen in KI, wie, um sogenannte Halluzinationen leichter auszumachen.
Alexander Ilic ergänzt: «Am ETH AI Center funktionieren wir mit offenen Grundlagen, die unabhängige Parteien prüfen und begutachten können.» Wahre Reallabore jener offenen KI-Fortgang sind die Swiss AI Initiative und dasjenige Swiss Patriotisch AI Institute: Hier gedeihen mehr als 650 Forschende jener ETH Zürich, jener EPF Lausanne und zehn weiteren inländischen Hochschulinstituten ein grosses Schweizer Sprachmodell und die nächste Generation von Basismodellen. Damit schaffen sie die Grundlage pro generative KI nachher Schweizer Werten. Offenheit bedeutet in diesem Zusammenhang, dass Quellcodes, Tools, Trainingsdaten und Modellgewichte – welche die Entscheidungen einer KI vortäuschen – ungehindert zugänglich sind. Dies ermöglicht es ebenfalls KMU und Start-ups, ihre Innovationen darauf aufzubauen. Darüber hinaus münden verbinden genutzte Open-Source-Basismodelle zu erheblichen Einsparungen c/o den Wert und beim CO₂-Fussabdruck.
Es gibt Prinzipien, um dasjenige Vertrauen in KI zu fördern, wie Zuverlässigkeit, Sicherheit, Robustheit, Konsistenz und Nachvollziehbarkeit. Zum Besten von Ilic sind dies grundlegende Anforderungen: «Nur wenn wir verstehen, welches sich in jener KI abspielt, können Organisationen beginnen, solche einzusetzen, um ihre Kernprozesse zu verändern und mit sensiblen Information zu funktionieren.» Sogenannte Flugschreiber-Systeme, die hinauf Information mit versteckten Vorurteilen oder fremden politischen Werten trainiert wurden, können mitunter sehr irritieren. «Dasjenige Vertrauen in KI wächst, wenn wir sicher sein können, dass sie hinauf denselben ethischen Prinzipien und Werten beruht, die ebenfalls unsrige eigenen sind», erklärt er.
Menschliche Werte
Petar Tsankov ergänzt: «Menschen erwarten, dass KI ethische Normen respektiert, Ungerechtigkeit vermeidet und Inhalte produziert, die menschlichen Werten gleichkommen. Beim Vertrauen in KI geht es nicht nur um technische Leistung, sondern ebenfalls drum, sicherzustellen, dass KI mit unseren gesellschaftlichen Prinzipien im Einklang steht.»
Ein Weg, um Prinzipien festzulegen, sind Governance-Richtlinien, Standards und Gesetze. «Doch Prinzipien alleinig reichen nicht», sagt Tsankov. «Vertrauen basiert nicht nur hinauf abstrakten Prinzipien. Eine vertrauenswürdige KI erfordert eine rigorose technische Kontrolle, ob sie tatsächlich robust, zuverlässig, ritterlich, sicher, erklärbar und gesetzeskonform funktioniert. Die Prinzipien technisch messbar zu zeugen, ist die grosse Herausforderung.»
In sensiblen Umfeldern kommen zwei weitere Prinzipien ins Spiel: Interpretierbarkeit und Erklärbarkeit. Dasjenige bedeutet, dass Menschen, die eine KI nutzen, wissen, wie solche ihre Entscheidungen fällt und dass sie solche Entscheidungen anderen im Unterschied zu verständlicherweise verdeutlichen können.
Je nachher Zweck
Wichtig sind die beiden Prinzipien zum Musterbeispiel in jener Medizin, vor allem wenn eine KI die Diagnose und Therapie einer Startschwierigkeit unterstützt. Hier beurteilen Menschen, wie Margarita Boenig-Liptsin sagt, die Vertrauenswürdigkeit einer KI je nachher Zweck differenzierend: weil Erlebnis, Wissen und Verantwortung jener KI-Forscherin, jener Ärztin, des Kindes und jener Erziehungsberechtigte sich unterscheiden und sie die Auswirkungen nicht gleich erleben.
«In jener Medizin zu tun sein KI-Modelle transparent, interpretierbar und erklärbar sein, um Vertrauen zu Vorteil verschaffen», sagt Informatikprofessorin Julia Vogt. Sie leitet die Medical Data Science Group jener ETH und entwickelt KI-Modelle, die Ärztinnen und Ärzte c/o jener Diagnose und Therapie von Krankheiten unterstützen. Ihre Wissenschaft zeigt, dass es derbei nicht nur hinauf die Leistung jener KI ankommt, sondern ebenfalls darauf, dass ihre Entscheidungen und Empfehlungen pro Ärztinnen und Ärzte und pro Patientinnen und Patienten verständlicherweise sind. Die Modelle werden von dort streng validiert und jener Datenschutz muss gewährleistet sein.