Nachrichten vom 16. Juli: Kürzlich haben einige Internetnutzer herausgefunden, dass ein überraschendes Ergebnis erzielt wird, wenn das wichtigste Rechtsdokument der Vereinigten Staaten, die Verfassung der Vereinigten Staaten, in einige Tools eingegeben wird, die speziell zur Erkennung künstlicher Intelligenz entwickelt wurden Die Verfassung der Vereinigten Staaten ist fast in Kraft. Sie muss von künstlicher Intelligenz geschrieben worden sein. Sofern James Madison kein Zeitreisender ist, ist dies offensichtlich unmöglich. Warum machen diese KI-Erkennungstools solche Fehler? Das ausländische Medium Arstechnica interviewte mehrere Experten und den Entwickler des KI-Erkennungstools GPTZero, um die Gründe aufzudecken.
Im Bildungsbereich hat das Schreiben mit künstlicher Intelligenz viele Kontroversen ausgelöst. Lehrer verwenden seit langem traditionelle Lehrmethoden und verwenden Aufsätze als Hilfsmittel, um die Beherrschung eines Fachs durch Schüler zu beurteilen. Die bisherigen Erkenntnisse deuten darauf hin, dass sich viele Lehrkräfte, die auf KI-Tools zur Erkennung von KI-generiertem Schreiben verlassen, als unzuverlässig erweisen. Aufgrund des Vorhandenseins falsch positiver Ergebnisse sind KI-Erkennungstools wie GPTZero, ZeroGPT und die Textklassifikatoren von OpenAI unzuverlässig und können nicht verwendet werden, um festzustellen, ob ein Artikel von einem großen Sprachmodell (LLM) generiert wurde.
Wenn Sie einen Teil der US-Verfassung in GPTZero einspeisen, sagt GPTZero, dass der Text „wahrscheinlich vollständig von KI geschrieben wurde“. In den letzten sechs Monaten wurden Screenshots mit ähnlichen Ergebnissen über andere KI-Erkennungstools in den sozialen Medien weit verbreitet. Tatsächlich passiert das Gleiche, wenn Sie etwas aus der Bibel eingeben. Um zu verstehen, warum diese Tools so offensichtliche Fehler machen, müssen wir zunächst verstehen, wie sie funktionieren.
Laut IT House verwenden verschiedene Schreibdetektoren mit künstlicher Intelligenz leicht unterschiedliche Erkennungsmethoden, aber die Grundprinzipien sind ähnlich: durch ein Modell der künstlichen Intelligenz, das auf einer großen Textmenge (einschließlich Millionen von Schreibbeispielen) und einer Reihe von Annahmen basiert wurden in den Regeln geschult, die verwendet werden, um festzustellen, ob Schrift eher von einem Menschen oder einer KI stammt.
Das Herzstück von GPTZero ist beispielsweise ein neuronales Netzwerk, das auf „einem großen, vielfältigen Korpus menschlicher Schrift und KI-generierter Texte mit Schwerpunkt auf englischer Prosa“ trainiert wurde. Als nächstes Das System verwendet Attribute wie „Ratlosigkeit“ und „Notfall“, um den Text zu bewerten und zu klassifizieren.
Beim maschinellen Lernen ist Ratlosigkeit ein Maß für die Abweichung zwischen einem Textstück und dem, was ein Modell der künstlichen Intelligenz während des Trainings gelernt hat. Die Idee hinter der Messung der Ratlosigkeit besteht darin, dass KI-Modelle beim Schreiben auf natürliche Weise die Inhalte aus ihren Trainingsdaten auswählen, mit denen sie am besten vertraut sind. Je näher die Ausgabe an den Trainingsdaten liegt, desto geringer ist die Verwirrung. Menschen sind verwirrendere Schriftsteller, und Menschen können auch mit geringerer Verwirrung schreiben, insbesondere wenn sie den formalen Stil nachahmen, der in der Rechtswissenschaft oder bei bestimmten Arten akademischen Schreibens verwendet wird. Und viele der von uns verwendeten Ausdrücke sind überraschend häufig.
Als Beispiel versuchen wir, das nächste Wort in diesem Satz zu erraten: „Ich möchte eine Tasse _____“. „Die meisten Leute würden die Lücken mit „Wasser“, „Kaffee“ oder „Tee“ füllen. Ein Sprachmodell, das auf einer großen Menge englischen Textes trainiert wurde, würde dasselbe tun, da diese Phrasen häufig in englischer Sprache vorkommen, wie in gezeigt Diese Ergebnisse. Entweder wird man ein geringes Maß an Ratlosigkeit haben.
Eine weitere Eigenschaft von Text, die GPTZero misst, ist das Phänomen, dass bestimmte Wörter oder Phrasen in schneller Folge erscheinen oder im Text „platzen“. Notfall bewertet die Variabilität der Satzlänge und -struktur im gesamten Text. Menschliche Autoren weisen häufig dynamische Schreibstile auf, was zu Texten mit variabler Satzlänge und -struktur führt, während KI-generierte Texte tendenziell konsistenter und einheitlicher sind Eine narrensichere Metrik zur Erkennung von KI-generierten Inhalten. Es gibt Ausnahmen, bei denen menschliche Autoren in einem stark strukturierten, konsistenten Stil schreiben, was zu höheren Emergenzwerten führt. Stattdessen können KI-Modelle so trainiert werden, dass sie menschenähnlicher sind Variabilität in der Satzlänge und -struktur, wodurch ihre Notfallbewertungen verbessert werden. Tatsächlich zeigt die Forschung, dass sie ihr Schreiben immer mehr wie menschliches Schreiben aussehen.
Das obige ist der detaillierte Inhalt vonDas Tool zur Erkennung künstlicher Intelligenz ist unzuverlässig und es wird angenommen, dass die US-Verfassung von einem Roboter geschrieben wurde. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!