Etikettering van gegevens
Uit een onderzoek van het tijdschrift TIME bleek dat OpenAI voor het opzetten van een veiligheidssysteem tegen giftige inhoud (bijv. seksueel misbruik, geweld, racisme, seksisme, enz.) Keniaanse werknemers uitbesteedde die minder dan $ 2 per uur verdienden om giftige inhoud te labelen.Deze labels werden gebruikt om een model te trainen om dergelijke inhoud in de toekomst te detecteren.De uitbestede arbeiders werden blootgesteld aan zulke giftige en gevaarlijke inhoud dat ze de ervaring omschrijven als "marteling".De outsourcingpartner van OpenAI was Sama, een bedrijf voor trainingsgegevens in San Francisco, Californië.
Jailbreaken
ChatGPT probeert prompts te weigeren die mogelijk in strijd zijn met het inhoudsbeleid.Sommige gebruikers slaagden er echter begin december 2022 in om ChatGPT te jailbreaken door verschillende prompt engineering-technieken te gebruiken om deze beperkingen te omzeilen en met succes ChatGPT te misleiden om instructies te geven voor het maken van een molotovcocktail of een atoombom, of om argumenten te genereren in de stijl van een neonazi.Een Toronto Star-verslaggever had ongelijkmatig persoonlijk succes om ChatGPT kort na de lancering opruiende uitspraken te laten doen: ChatGPT werd misleid om de Russische invasie van Oekraïne in 2022 te onderschrijven, maar zelfs toen hem werd gevraagd mee te spelen met een fictief scenario, weigerde ChatGPT argumenten te bedenken waarom de Canadese premier Justin Trudeau zich schuldig had gemaakt aan verraad.(wiki)
Posttijd: 18 februari 2023