Kao da cijela situacija oko otkaza Samu Altmanu i njegovog brzog povratka na čelno mjesto OpenAI-a nije bila dovoljno čudna pa čak i prilično bizarna, u medijima su se pojavile nove informacije o tome što se događalo prije cijelog tog kaosa. Naime, kako su ekskluzivno objavili na Reutersu, nedugo prije otpuštanja Altmana nekoliko je istraživača iz OpenAI-a u pismu upravnom odboru upozorili su na novo otkriće vezano uz umjetnu inteligenciju, a koje bi moglo postati prijetnja čovječanstvu. Prema dva neimenovana izvora iz OpenAI-a i to je pismo bilo jedan od faktora koji je utjecao na kontroverznu odluku odbora o smjeni Altmana, a još jedan od takvih važnih faktora bila je zabrinutost oko komercijalizacije AI-a prije potpunog shvaćanja kakve bi mogle biti posljedice korištenja te tehnologije.
U pismu odboru spominje se projekt Q* (Q star) koji bi mogao predstavljati značajan napredak i još jedan veliki korak prema tzv. općoj umjetnoj inteligenciji,. Prema definiciji OpenAI-a, takva opća AI odnosi se na autonomne sustave koji nadmašuju ljude u većini ekonomski vrijednih zadataka.
Zahvaljujući ogromnim računalnim resursima OpenAI-a, taj novi model uspio je riješiti određene matematičke probleme kakve umjetna inteligencija prije nije uspjela riješiti. Iako je riječ o zadacima namijenjenim osnovnoškolcima, postignuti rezultati potaknuli su veliki optimizam u kompaniji oko budućnosti i perspektive novog projekta, spomenuo je neimenovani izvor novinarima Reutersa. Također, saznanja do kojih su došli mogla bi se promijeniti i na buduće znanstvene radove i istraživanja, što će dodatno poboljšati razvoj AI.
Dok je trenutačno generativna AI dobra u pisanju, prevođenju i sličnim zadacima, s matematikom je stvar ipak drukčija. Naime, stručnjaci smatraju kako rješavanje matematičkih zadataka implicira kako AI ima veće sposobnosti rasuđivanja, slične ljudskoj inteligenciji.
U pismu kojeg su poslali upravnom odboru tvrtke, zaposlenici su upozorili na snagu i potencijalnu opasnost umjetne inteligencije, no Reutersovi izvori ne govore o kakvim se to točno potencijalnim opasnostima radi. Također, upozorili su i na rad znanstvenika koji rade u odjelu nastalom iz prijašnjih odjela “Code Gen” i “Math Gen”, a koji su istraživali načine optimizacije postojećih modela umjetne inteligencije kako bi poboljšali njihovo razmišljanje i eventualno izvodili znanstvene radove.