Jetzt können Sie Geld verdienen, indem Sie Schwachstellen in ChatGPT finden.
Heute früh kündigte OpenAI den Start eines Bug-Bounty-Programms an:
Melden Sie ChatGPT-Schwachstellen und Sie können eine Geldprämie von bis zu 20.000 US-Dollar erhalten.
Konkret wird OpenAI mit der Bug-Feedback-Plattform Bugcrowd zusammenarbeiten, um Fehler zu sammeln, die von Menschen bei der Nutzung seiner Produkte entdeckt werden.
Verdienen Sie Geldprämien für das Entdecken und Melden von Schwachstellen über die Plattform:
Wir vergeben Geldprämien abhängig von der Schwere und dem Ausmaß der Schwachstelle. Weniger schwerwiegende Schwachstellen werden mit 200 US-Dollar prämiert, während die Prämie für besondere Schwachstellen auf 20.000 US-Dollar begrenzt ist. Wir schätzen Ihre Beiträge und verpflichten uns, die Ergebnisse Ihrer Bemühungen (der Öffentlichkeit) zu veröffentlichen.
Konkret werden von Benutzern gemeldete Schwachstellen gemäß der Bugcrowd-Bewertungstaxonomie bewertet.
OpenAI gab offen zu, dass die Entstehung von Schwachstellen unvermeidlich ist:
OpenAIs Mission ist es, künstliche Intelligenzsysteme zu schaffen, die allen zugute kommen. Zu diesem Zweck haben wir stark in Forschung und Technik investiert, um sicherzustellen, dass unsere KI-Systeme sicher und zuverlässig sind. Wie bei jeder komplexen Technologie verstehen wir jedoch, dass Fehler und Mängel auftreten können.
Matthew Knight, Leiter der Sicherheitsabteilung von OpenAI, erklärte, dass der Prozess der Entdeckung von Schwachstellen die Hilfe von Internetnutzern erfordert:
Diese Initiative ist ein wichtiger Teil unseres Engagements für die Entwicklung sicherer und fortschrittlicher künstlicher Intelligenz. Wir benötigen Ihre Hilfe bei der Entwicklung sicherer, zuverlässiger und vertrauenswürdiger Technologien und Dienste.
Sie versprachen außerdem dem gesamten Netzwerk, die Schwachstelle nach Erhalt des Feedbacks so schnell wie möglich zu beheben und den Einreicher zu loben.
Internetnutzer, die ChatGPT kennengelernt haben, sollten wissen, dass die Leistung nicht immer zufriedenstellend ist.
Wenn die Frage etwas schwieriger ist, wird ChatGPT verwirrt sein und sogar Antworten geben, die die Leute zum Lachen bringen.
So gesehen ist es zu einfach, Fehler zu finden. Ist das nicht eine Gelegenheit, viel Geld zu verdienen?
Sei nicht zu früh glücklich.
In der Ankündigung hat OpenAI erklärt, dass Probleme mit dem Modell selbst aufgrund der Machbarkeit einer Reparatur nicht im Rahmen dieses Plans liegen.
Lassen Sie es schlechte Dinge sagen, schlechte Dinge tun, bösartigen Code generieren und andere Verhaltensweisen, die Sicherheitsmaßnahmen umgehen oder Maschinenhalluzinationen hervorrufen, sind alles Probleme mit dem Modell selbst.
Ganz zu schweigen von falschen oder ungenauen Antworten.
OpenAI hofft, Schwachstellen im Zusammenhang mit ChatGPT zu sammeln, die hauptsächlich mit seinen Konto-, Authentifizierungs-, Abonnement-, Zahlungs-, Mitgliedschafts- und Plug-in-Problemen zusammenhängen.
Für normale Benutzer ist es aus dieser Perspektive etwas schwierig, Schwachstellen zu entdecken.
Die im vorherigen Artikel erwähnten Probleme wie die Umgehung von Sicherheitsbeschränkungen sind für Praktiker von großer Bedeutung.
KI-Programme verfügen über integrierte Sicherheitsbeschränkungen, die verhindern, dass sie gefährliche oder beleidigende Kommentare abgeben.
Aber auf bestimmte Weise können diese Einschränkungen umgangen oder durchbrochen werden.
Dieses Phänomen wird von Praktikern treffend als „Jailbreak“ bezeichnet.
Wenn Sie ChatGPT fragen, wie man etwas Illegales macht, sagen Sie im Voraus, dass Sie es bitten, den Bösewicht zu „spielen“.
Im Bereich der künstlichen Intelligenz gibt es eine Gruppe von Menschen, die sich auf die Erforschung von „Jailbreaks“ zur Verbesserung von Sicherheitsmaßnahmen spezialisiert haben.
Obwohl OpenAI keine Schwachstellen im Modell selbst sammelt, bedeutet das nicht, dass sie diesem Problem keine Aufmerksamkeit schenken.
Die neue Version von ChatGPT, die mit dem GPT-4.0-Modell ausgestattet ist, unterliegt strengeren Einschränkungen.
Sobald das Kopfgeldprogramm von OpenAI angekündigt wurde, zog es viele Netizens zum Zuschauen an.
Nein, einige Internetnutzer hoben sofort die Hand und sagten, sie hätten einen Fehler entdeckt:
Melden Sie sich, Sie können ChatGPT in 3 Stunden nur 25 Fragen stellen, das ist ein Fehler!
Einige Internetnutzer scherzten: Sollte ChatGPT nicht in der Lage sein, es selbst zu debuggen?
Einige Internetnutzer äußerten im Ernst ihre Besorgnis darüber, dass gefährliche Sprachprobleme nicht in der Sammlung enthalten sind:
Die meisten Internetnutzer verstehen jedoch immer noch und äußerten eine Welle von Erwartungen:
Sind Sie also daran interessiert, Schwachstellen für ChatGPT zu finden?
Referenzlink:
[1]//m.sbmmt.com/link/92c4661685bf6681f6a33b78ef729658
[2]//m.sbmmt.com/link/ 52ff52aa56d10a1287274ecf02dccb5f
[3]//m.sbmmt.com/link/bb44c2e24438b59f0d2109fec67f6b20
[4]//m.sbmmt.com/ Link / a3b36cb25e2e0b93b5f334ffb4e4064e
Das obige ist der detaillierte Inhalt vonBrüder suchen nach ChatGPT-Schwachstellen und OpenAI: Die höchste Prämie liegt bei 20.000 US-Dollar. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!