Geschäftsführer glauben, dass das größte Risiko von KI in verpassten Chancen besteht, insbesondere darin, dass Wettbewerber KI-basierte Geschäftsfunktionen möglicherweise früher implementieren als sie.
Als CIO müssen Sie die tatsächlichen KI-Risiken berücksichtigen und auch potenzielle Risiken vorhersehen. Hier erfahren Sie, wie Sie dies effektiv erreichen.
1 Wird sich KI auf den Menschen auswirken? Antwort: Dies ist kein Risiko, sondern eine Entscheidung. Persönliche Computer, dann das Internet und dann Smartphones eröffneten Möglichkeiten für computergestützte Menschen. KI kann das Gleiche tun, und Unternehmensleiter können sich auf den Aufbau eines stärkeren und wettbewerbsfähigeren Unternehmens konzentrieren, indem sie KI-Funktionen nutzen, um ihre Mitarbeiter zu stärken und zu stärken.
Sie können, einige werden es tun, andere werden KI nutzen, um Aufgaben zu automatisieren, die derzeit von den Menschen, die sie beschäftigen, ausgeführt werden.
Oder, was wahrscheinlicher ist, sie werden beides tun, keines davon wird im absoluten Sinne besser sein, aber sie werden unterschiedlich sein. Als CIO müssen Sie dabei helfen, die Absichten des Unternehmens zu kommunizieren, unabhängig davon, ob KI zum Hinzufügen oder Ersetzen von Mitarbeitern eingesetzt wird.
Skynet ist eine der möglichen KI-Zukünfte, die Menschen zum Schaudern bringt, gilt aber auch als das unwahrscheinlichste Szenario. Das liegt nicht daran, dass es unmöglich ist, Killerroboter zu erschaffen, sondern daran, dass es keinen guten Grund gibt, solch zerstörerische künstliche Intelligenz zu entwickeln und in sie zu investieren.
In der Natur gehört die Jagd auf andere Organismen zu den Überlebensbedürfnissen der meisten Organismen. Raubtiere jagen ihre Beute, um ihr Überleben und ihre Fortpflanzungsfähigkeit zu sichern. Allerdings würden nur sehr wenige Lebewesen außer Menschen anderen Arten nur zum Spaß Schaden zufügen. Dieses Verhalten kommt selten vor und ist in der Regel ein abnormales Verhalten, das durch menschliches Eingreifen oder Umweltschäden verursacht wird. Die gegenseitige Abhängigkeit und das Gleichgewicht in der Natur ermöglichen die Aufrechterhaltung der Beziehung zwischen Beute und Beute, und jedes Lebewesen spielt in diesem Ökosystem eine wichtige Rolle
Neben den Bereichen Elektrizität und Halbleiter werden wir eine Beziehung mit einem starken Willen finden KI? Der Wettbewerb um Ressourcen ist so hart geworden, dass ein Killerroboter-Szenario zu einem Problem wird, dem wir uns stellen müssen, das weiterhin fraglich ist.
Das liegt daran, dass KI, wenn sie mit uns in den Bereichen Energie und Halbleiter konkurriert, weniger wahrscheinlich Ressourcen verschwendet, um Killerroboter zu bauen.
3. Deepfakes, ja, Deepfakes sind ein Problem, da sie an der Schwelle zum Realitätskrieg stehen, sind sie ein Problem, das nur noch schlimmer wird. Deepfake-KI und Deepfake-Erkennungs-KI müssen immer schneller werden. Die Verbesserung besteht nur darin, den Status des anderen aufrechtzuerhalten .
So wie sich Malware-Gegenmaßnahmen von eigenständigen Antivirenmaßnahmen zu branchenweiter Cybersicherheit entwickelt haben, können wir mit einer ähnlichen Entwicklung bei Deep-Fake-Gegenmaßnahmen rechnen, während sich der Krieg gegen die Realität verschärft.
Die CEOs, die in absehbarer Zeit keine Ex-CEOs sein wollen, werden viel Zeit und Aufmerksamkeit auf irgendeine Form der „TOWS“-Analyse (Bedrohungen, Chancen, Schwächen und Stärken) verwenden ).
Als CIO ist es seit langem eine Ihrer wichtigsten Aufgaben, die Geschäftsstrategie voranzutreiben, indem Sie die einzelnen Punkte verbinden, von IT-basierten Fähigkeiten bis hin zu Geschäftsmöglichkeiten (sofern Ihr Unternehmen diese zuerst nutzt) oder Bedrohungen (wenn ein Wettbewerber nutzt sie zuerst aus).
Das war der Fall, bevor der aktuelle KI-Wahnsinn die IT-Branche erfasste, darum ging es bei „Digital“ und jetzt umso mehr.
In Verbindung mit KI haben CIOs eine weitere Verantwortungsebene: Sie müssen ihre neuen Fähigkeiten in das gesamte Unternehmen integrieren.
Es gibt noch eine andere Art von Risiko, über das man sich Sorgen machen muss und das wenig Beachtung findet: „vom Menschen verursachte menschliche Schwachstellen“.
Beginnen Sie mit Daniel Kahnemans Denken, schnell und langsam. In dem Buch identifiziert Kahneman zwei Arten unseres Denkens. Wenn wir schnell denken, nutzen wir Gehirnschaltkreise, die es uns ermöglichen, Dinge auf einen Blick, ohne Verzögerung und fast ohne Anstrengung zu verstehen. Schnelles Denken ist auch das, was wir tun, wenn wir „unserem Bauchgefühl vertrauen“.
Wenn wir langsam denken, nutzen wir einen Schaltkreis, der es uns ermöglicht, 17 mit 53 zu multiplizieren – ein Vorgang, der viel Konzentration, Zeit und Gehirnleistung erfordert.
Wenn es um KI geht, ist langsames Denken das, was Expertensysteme tun, und bis dahin ist schnelles Denken das Spannendste an der KI, was die Computerprogrammierung der alten Schule leistet, und dafür sind neuronale Netze da.
In ihrem aktuellen Entwicklungsstand ist die Form des schnellen Denkens der KI auch anfällig für die gleichen kognitiven Fehler wie das Vertrauen in unsere Intuition. Zum Beispiel:
Aus Korrelation auf Kausalität schließen: Wir alle wissen, dass wir das nicht tun sollten, aber es ist schwer, uns davon abzuhalten, auf Kausalität zu schließen, wenn alle unsere Beweise gegenübergestellt werden.
Tatsächlich besteht das, was heute als KI bezeichnet wird, weitgehend aus maschinellem Lernen neuronaler Netze, bei dem aus Korrelation auf Kausalität geschlossen wird.
Zurück zur Mitte: Sie haben die Great British Baking Show gesehen. Sie werden feststellen, dass derjenige, der in einer Episode den Star Baker Award gewinnt, dazu neigt, in der nächsten Episode schlechter zu backen, was der Fluch des Star Baker ist.
Es ist nur kein Fluch, es ist nur Zufall in Aktion, die Leistung jedes Bäckers folgt einer Glockenkurve, wenn jemand in einer Woche Star Baker gewinnt, hat seine Leistung das eine Ende der Glockenkurve erreicht, beim nächsten Mal, wenn er backt, Es ist am wahrscheinlichsten, dass sie eine durchschnittliche Leistung erbringen und nicht noch einmal den Star Baker Tail erreichen, denn jedes Mal, wenn sie backen, ist die Wahrscheinlichkeit höher, dass sie eine durchschnittliche Leistung erbringen und nicht den Gewinner-Tail.
Es gibt keinen Grund zu der Annahme, dass die KI für maschinelles Lernen gegen diesen Irrtum immun ist. Ganz im Gegenteil: Angesichts zufälliger Prozessleistungsdatenpunkte sollten wir erwarten, dass die KI nach jedem schlechten Ergebnis Verbesserungen vorhersagt.
Dann kommen Sie zu dem Schluss, dass Ursache und Wirkung funktionieren.
Kein „zeige deine Arbeit“: Nun, es ist nicht deine Aufgabe, es ist die Aufgabe der KI. Es gibt eine aktive Forschung zur Entwicklung sogenannter „erklärbarer KI“, die notwendig ist.
Angenommen, Sie haben einen Mitarbeiter beauftragt, eine mögliche Geschäftsmöglichkeit zu bewerten und Ihnen eine Vorgehensweise zu empfehlen, und er würde dies tun und Sie würden fragen: „Warum denken Sie, dass das so ist?“ Diese Frage würde jeder kompetente Mitarbeiter erwarten bereit, darauf zu antworten.
Bis „erklärbare KI“ zu einem Merkmal und nicht mehr zur Wunschliste wird, ist KI in diesem Bereich weniger leistungsfähig als die Arbeitskräfte, die viele Unternehmen hoffentlich ersetzen – sie können ihre eigenen Gedanken nicht erklären.
Zweifellos haben Sie im Zusammenhang mit KI schon einmal jemanden sagen hören, dass „ein Computer nie x kennen wird“, wobei x etwas ist, in dem die erfahrensten Menschen gut sind.
Sie haben sich geirrt, das ist eine beliebte Behauptung, seit ich in diesem Geschäft angefangen habe, und seitdem ist es offensichtlich, dass ein Computer alles kann, egal für welches x man sich entscheidet, und zwar besser als Wir sind besser.
Die Frage ist nur, wie lange wir darauf warten müssen, dass es passiert.
Das obige ist der detaillierte Inhalt vonWie CIOs den wahrgenommenen Risiken von KI begegnen können. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!