ChatGPT:n suojaukset pettivät, kun chattibottiin sovellettiin tiettyä kikkaa. ChatGPT paljastaa kielimallin koulutukseen käytettyjä tietoja, kun se pannaan pommittamaan samaa yhtä sanaa uudelleen ja uudelleen. Joukko yhdysvaltalaistutkijoita kehitti hyökkäystavan, jolla ChatGPT:stä sai lypsettyä megatavun verran opetusdataa muutaman sadan dollarin kustannuksilla. Tutkijat arvioivat, että lisärahoituksella tällä tekniikalla saataisiin lypsettyä jopa gigatavun verran opetustietoja.