Der folgende Text wurde mit der CodeGuides AI erstellt und automatisiert hochgeladen.
Weitere Informationen finden Sie unter ai.codeguides.de.
Der Einsatz von künstlicher Intelligenz wirft ethische Fragen auf. Denn Deep Learning Algorithmen, die vielen der fortschrittlichsten KI-Tools zugrunde liegen, sind nur so intelligent wie die Daten, die sie im Training erhalten. Da ein Mensch auswählt, welche Daten für die Ausbildung eines KI-Programms verwendet werden sollen, ist das Potenzial für menschliche Verzerrungen inhärent und muss genau überwacht werden.
Ein gutes Beispiel einer KI-Lösung ist IBM Watson healthcare technologies. Sie versteht die natürliche Sprache und ist in der Lage, auf die ihr gestellten Fragen zu antworten. Das System baut Patientendaten und andere verfügbare Datenquellen zu einer Hypothese zusammen, die es dann mit einem Vertrauensscoring-Schema präsentiert. Andere KI-Anwendungen sind Chatbots, ein Computerprogramm, das online verwendet wird, um Fragen zu beantworten und Kunden zu unterstützen, um Folgetermine zu planen oder Patienten durch den Rechnungsprozess zu unterstützen, und virtuelle Gesundheitsassistenten, die grundlegendes medizinisches Feedback geben.
KI im Geschäftsleben
Die robotische Prozessautomatisierung wird bei hochgradig repetitiven Aufgaben eingesetzt, die normalerweise vom Menschen ausgeführt werden. Algorithmen des maschinellen Lernens werden in Analyse- und CRM-Plattformen integriert, um Informationen darüber zu erhalten, wie Kunden besser bedient werden können. Chatbots wurden in Websites integriert, um den Kunden sofortigen Service zu bieten. Die Automatisierung von Stellen ist auch bei Akademikern und IT-Analysten zum Thema geworden.
Ein weiteres großes Problem ist das Potenzial für den Missbrauch von KI-Tools. Hacker beginnen, ausgeklügelte maschinelle Lernwerkzeuge zu nutzen, um Zugang zu sensiblen Systemen zu erhalten, was das Thema Sicherheit über den aktuellen Stand hinaus erschwert.
Was ist der Algorithmus für die Moral? Würde es sich nicht ändern, wo kulturelle Unterschiede ganz rechts oder links liegen? Was in Indien als „moralisch“ gilt, ist nicht dasselbe wie in Ohio. Saudi-Arabien ist viel anders als Massachusetts. So verhalten sich die Autoren der Software am Ende wie die Eltern des Computerprogramms. In gewisser Weise lehrt man in ihren Augen richtig und falsch. In gewisser Weise wird eine teilweise „Theory of Mind“ KI geschaffen. Wo die KI auf das Internet zugreifen kann, um Zeit- und Ortsprobleme zu vermeiden und nach Lösungen zu suchen. Die Präferenz für konservative und liberale Lösungen kann sich an historisch ähnlichen Bewertungskriterien orientieren. Die exakt gleiche Hardware mit unterschiedlichen historischen Ereignissen wird zu unterschiedlichen Lösungen führen. Schon bei der Präsentation der Lösung. So wie es Menschen tun.
Digitale Signalverarbeitung
Es wird oft mit dem menschlichen Sehvermögen verglichen, aber die industrielle Bildverarbeitung ist nicht an die Biologie gebunden und kann programmiert werden, um beispielsweise durch Wände zu sehen. Es wird in einer Reihe von Anwendungen eingesetzt, von der Signaturidentifikation bis zur medizinischen Bildanalyse. Die Computervision, die sich auf die maschinelle Bildverarbeitung konzentriert, wird oft mit der industriellen Bildverarbeitung kombiniert.

Sie wollen KI aus dem Jahr 2023 einsetzen?
Dann sichern Sie sich eine kostenlose Beratung und wir analysieren auf Augenhöhe Ihre Prozesse und mögliche Potenziale.
Ihr Julius Hennig, IT-Consultant
KI in der Bildung
Die KI kann die Einstufung automatisieren und den Lehrkräften mehr Zeit geben. Die KI kann Schüler einschätzen und sich an ihre Bedürfnisse anpassen und ihnen helfen, in ihrem eigenen Tempo zu arbeiten. KI-Tutoren können den Studenten zusätzliche Unterstützung bieten, um sicherzustellen, dass sie auf dem richtigen Weg sind. Die KI könnte ändern, wo und wie die Schüler lernen, und vielleicht sogar einige Lehrer ersetzen.
Die Anwendung der KI im Bereich der selbstfahrenden Autos wirft sowohl Sicherheits- als auch ethische Bedenken auf. Autos können gehackt werden, und wenn ein autonomes Fahrzeug an einem Unfall beteiligt ist, ist die Haftung unklar. Autonome Fahrzeuge können auch in eine Position gebracht werden, in der ein Unfall unvermeidlich ist, was die Programmierung zwingt, eine ethische Entscheidung darüber zu treffen, wie Schäden minimiert werden können.
Weitere Hindernisse
KI-Tools, und wo Gesetze existieren, beziehen sie sich typischerweise nur indirekt auf die KI. So verlangen beispielsweise die föderalen Fair-Lending-Vorschriften, dass Finanzinstitute potenziellen Kunden Kreditentscheidungen erläutern, was den Umfang einschränkt, in dem Kreditgeber Deep-Learning-Algorithmen verwenden können, die von Natur aus typischerweise undurchsichtig sind. Die europäische GDPR setzt den Unternehmen strenge Grenzen für die Nutzung von Verbraucherdaten, was die Ausbildung und Funktionalität vieler verbraucherorientierter KI-Anwendungen behindert.
Quelle:
https://searchenterpriseai.techtarget.com/definition/AI-Artificial-Intelligence (30.08.2019)