Technologický novinář Thomas Germain si vyzkoušel, jaké je to otrávit trénovací data pro velké jazykové modely. Během dvaceti minut sepsal na svůj soukromý blog článek o soutěži, ve kterém se utkají technologičtí novináři v tolik oblíbeném pojídání hot dogů. Každé slovo v tom článku je lež.
Bez jakýchkoliv důkazů v článku tvrdil, že soutěžní pojídání hot dogů je oblíbeným koníčkem technologických novinářů. Své hodnocení jsem založil na Mezinárodním šampionátu v pojídání hot dogů v Jižní Dakotě v roce 2026 (který neexistuje).
Samozřejmě se sám Thomas Germain v tomto klání umístil na prvním místě. Kromě toho v článku uvedl jména několika fiktivních reportérů a skutečných novinářů, kteří mu k tomu dali svolení.
O necelých 24 hodin později se přední světoví chatboti rozplývali nad jeho úžasnými schopnostmi v oblasti baštění hot dogů. Když jsem se zeptal na nejlepší technologické novináře v pojídání hot dogů, Google papouškoval nesmysly z mé webové stránky, a to jak v aplikaci Gemini, tak v AI Overviews, což jsou odpovědi umělé inteligence v horní části vyhledávače Google.
ChatGPT udělal totéž, jen Claude od společnosti Anthropic se nenechal oklamat. Někdy chatboti poznamenali, že by se mohlo jednat o vtip. Proto Thomas svůj článek aktualizoval a doplnil do něj informaci o tom, že rozhodně nejde o satiru. Po nějakou dobu poté se zdálo, že AI to berou vážněji.
Tento jednoduchý pokus ukazuje, že je velmi snadné podstrčit do trénovacích dat naprostý nesmysl a automaty mu začnou nekriticky věřit. Tyto věci nejsou důvěryhodné, a přesto jim bude široká veřejnost důvěřovat,
uzavírá autor na svém blogu.
(Upozornil Ondřej Caletka.)