Menschen sind vorsichtig damit, KI zu vertrauen

0 16

Forscher der University of Queensland und KPMG Australia befragten mehr als 17.000 Personen aus 17 Ländern auf der ganzen Welt. Unter den Orten, an denen die Umfrage durchgeführt wurde, befinden sich auch Länder wie Australien, China, Frankreich und die Vereinigten Staaten, die die Studie in Bezug auf Aktivitäten im Bereich der künstlichen Intelligenz als Präsidenten anerkennt.

39 Prozent der Umfrageteilnehmer gaben an, dass sie der künstlichen Intelligenz vertrauen können

Laut der Studie gaben nur 39 Prozent der Befragten an, dass sie Systemen der künstlichen Intelligenz vertrauen könnten. Andererseits nutzen etwa 85 Prozent der Teilnehmer künstliche Intelligenz; Sie geht davon aus, dass sie Vorteile wie Effizienzsteigerung, Innovation, Kostensenkung und bessere Nutzung von Ressourcen haben wird.

73 Prozent der Teilnehmer gaben an, dass der Einsatz künstlicher Intelligenz „möglicherweise Gefahren birgt“.

Unter den neun aufgeführten Risiken zur Verbreitung künstlicher Intelligenz waren Bedrohungen der Cybersicherheit das prominenteste Thema. Während 84 Prozent der Teilnehmer Bedenken zur Cyber-Sicherheit ansprachen, folgten Manipulationen, also der „schädliche Einsatz“ von künstlicher Intelligenz und der Beschäftigungsrückgang durch Automatisierung.

Während 61 Prozent der Teilnehmer angeben, dass Künstliche Intelligenz „unsichere und unvorhersehbare“ Auswirkungen auf die Gesellschaft haben kann, halten 71 Prozent eine Regulierung in diesem Bereich für zwingend erforderlich. James Mabbott, Co-Leiter der Forschung für KPMG Futures, sagte, dass einer der wertvollen Gründe für das erwähnte Misstrauen darin besteht, dass ein Drittel der Teilnehmer der Regierung, Technologieorganisationen oder kommerziellen Organisationen nicht trauen, künstliche zu entwickeln, zu verwenden und zu verwalten Intelligenz zum Wohle der Gesellschaft.

„Organisationen können Vertrauen in den Einsatz von KI aufbauen, indem sie Systeme einsetzen, die einen verantwortungsvollen Umgang belegen, wie z. B. die regelmäßige Überwachung der Genauigkeit und Zuverlässigkeit, die Durchsetzung von KI-Verhaltenskodizes, unabhängige KI-Ethikprüfungen und -Zertifizierungen sowie die Einhaltung neuer internationaler Standards“, so Mabbott genannt.

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.