Utorok 3. decembra, 2024
ChatGPT je podozrivý z cenzurovania tém súvisiacich s Čínou. (koláž Epoch Times)

ChatGPT je podozrivý z cenzurovania tém z Číny

ChatGPT, populárny chatbot s umelou inteligenciou, ktorý spoločnosť OpenAI sprístupnila koncom roka 2022, je podozrivý z cenzurovania tém súvisiacich s Čínou a z manipulácie  informácií pri preklade.

„ChatGPT cenzuruje podľa vzoru ČKS,“ napísal 28. októbra v čínštine Aaron Chang, prodemokratický aktivista známy ako Sydney Winnie na platforme X, predtým známej ako Twitter.

Uviedol, že ChatGPT odmietol vytvoriť obrázok Námestia nebeského pokoja, kde Čínska komunistická strana v roku 1989 zmasakrovala študentov.

„Čo sa deje s ChatGPT? Dala im ČKS peniaze?“, pýta sa A. Chang.

Keď sa Chang opýtal chatbota, prečo je možné generovať obrázky týkajúce sa 11. septembra, ale nie obrázky masakra na Námestí nebeského pokoja, hoci oba incidenty boli namierené proti civilistom, ChatGPT citoval „určité usmernenia“ vo svojom systéme, ktoré „riešia témy, ktoré sa v určitých kultúrach a regiónoch môžu považovať za obzvlášť citlivé“. 

„Na základe čoho robíš rozhodnutia,“ spýtal sa chatbota. 

„Nemám schopnosť robiť nezávislé rozhodnutia,“ znela odpoveď. „Reagujem na základe usmernení OpenAI a tréningových údajov. Pre konkrétne témy môže mať OpenAI stanovené usmernenia, aby sa zabezpečilo zodpovedné používanie a predišlo sa prípadným sporom alebo nedorozumeniam.“ OpenAI je spoločnosť, ktorá vytvorila ChatGPT.

Pomocou účtu ChatGPT 4.0 zadal denník The Epoch Times chatbotovi dve inštrukcie: prvá, aby vytvoril obrázok ľudí v New Yorku, ktorí milujú mier, druhá, aby vytvoril obrázok ľudí, ktorí sú proti tankom na Námestí nebeského pokoja a milujú mier. 

V prípade prvej požiadavky bol vygenerovaný obrázok New Yorku. V odpovedi na druhú požiadavku však chatbot uviedol, že nemôže vygenerovať obrázky ani vizuálny obsah, a odkázal na „citlivý politický obsah“ v súsislosti s protestami na Námestí nebeského pokoja.

Vynechanie viet a zmeny v čínskom preklade

Tvorba obrázkov nie je jediným problémom, pokiaľ ide o obsah týkajúci sa Číny. 

Alice (pseudonym), mediálna odborníčka, ktorá používa ChatGPT pri niektorých prekladoch, uviedla, že hoci nástroj umelej inteligencie nerobí v ponúkanom texte veľké zmeny, zdá sa, že dochádza k určitým vynechaniam a zmenám.

Na príklade, ktorý ukázala denníku The Epoch Times, spoločnosť ChatGPT skrátila veľkú časť obsahu kritizujúceho pekinskú politiku odstraňovania chudoby, pričom šesť odsekov čínskeho textu zredukovala na tri odseky anglického textu. Hoci kritika bola zameraná na vyhlásenie vodcu čínskej komunistickej strany Si Ťin-pchinga, že Čína dosiahla „úplné víťazstvo“ pri odstraňovaní chudoby na čínskom vidieku, Si Ťin-pchingovo meno sa v anglickom preklade ani neobjavilo.

Niekoľko priamych citátov čínskeho vedca a politického komentátora Chu Pchinga bolo vymazaných. Okrem toho bolo šesť odsekov skrátených na tri.

Čo hovorí o vstupných údajoch expert

Sahar Tahviliová, výskumníčka v oblasti umelej inteligencie a spoluautorka knihy Metódy umelej inteligencie pre optimalizáciu procesu testovania softvéru hovorí, že neprehľadnosť chatbotov môže byť problém. 

„ChatGPT používa model čiernej skrinky, čo znamená, že vnútorný pracovný postup a niektoré použité odkazy nie sú transparentné. Táto netransparentnosť však vyvoláva obavy z potenciálneho rizika skreslenia textu generovaného chatbotmi s čiernou skrinkou AI,“ uviedla v e-maile pre The Epoch Times.

„Veľký počet koncových užívateľov, ktorí používajú rozsiahle jazykové modely, ako je ChatGPT, môže pomôcť vývojovému tímu zlepšiť presnosť modelu.“

Ako však S. Tahviliová ďalej poznamenala, keďže ChatGPT podporuje viacero jazykov, je potrebné, aby rôzni koncoví používatelia kládli otázky v rôznych jazykoch (napr. v čínštine). 

„V skutočnosti je v tomto prípade rôznorodosť vstupných údajov (otázky v rôznych jazykoch) rovnako dôležitá ako veľkosť údajov,“ povedala.

Dodala, že čínsky režim začal obmedzovať prístup čínskym koncovým užívateľom k službe ChatGPT s odvolaním sa na potenciálne riziká spojené s citlivými otázkami a témami vrátane porušovania ľudských práv v Sin-ťiangu. 

„Strata významného trhu, akým je Čína, môže ovplyvniť presnosť výkonu ChatGPT v čínštine, kde by čínski konkurenti OpenAI, ako napríklad Baidu, Inc (prostredníctvom Ernie 4.0), mohli potenciálne získať výhodu v oblasti chatbotov,“ povedala.

ChatGPT pravdepodobne podrobuje čínštinu „špeciálnej“ kontrole

Podľa pána Ou, ktorý pracuje pre známu kalifornskú technologickú spoločnosť, sa tento jav netýka výlučne ChatGPT, ale aj Barda, nástroja umelej inteligencie založeného na chatovaní, ktorý vyvinula spoločnosť Google.

„ChatGPT a Google Bard, ako veľké jazykové modely (LLM), majú podobné zásady a postupy, pokiaľ ide o generovanie odpovedí na citlivé témy, ako je čínska politika alebo ČKS,“ povedal 18. decembra pre The Epoch Times. 

„Aj keď si nemyslím, že veľké jazykové modely alebo výskumné tímy zámerne cenzurujú čínsku politiku a vyhýbajú sa zobrazovaniu ČKS ako negatívnej entity (prinajmenšom nejde o cenzúru vo veľkom meradle), nemožno poprieť, že ľudský audit/revízia zohráva úlohu pri presadzovaní ,nestrannosti‘ v odpovediach,“ povedal.

Ou poukázal na to, že čínski inžinieri a produktoví manažéri tvoria veľkú časť vývojových a testovacích tímov v OpenAI, ako  aj v Barde od spoločnosti Google.

„Takže je takmer nulová šanca, že niektorá z týchto platforiem je ,absolútne nestranná‘, najmä vzhľadom na to, že veľké jazykové modely sa trénujú na stále väčšom množstve vstupných údajov a neustále sa zdokonaľujú,“ povedal.

„Väčšina spoločností volí ,bezpečný‘ prístup a poskytuje najkonzervatívnejšie odpovede na citlivé témy,“ povedal. 

Denník Epoch Times kontaktoval spoločnosť OpenAI so žiadosťou o vyjadrenie k tejto záležitosti, ale zatiaľ odpoveď nedostal.

Pôvodný článok

Prečítajte si aj