Sam Altman ironizează modelul cibernetic Mythos al Anthropic: „marketing bazat pe frică”
Într-o apariție recentă la un podcast, CEO-ul OpenAI, Sam Altman, a criticat noul model de securitate cibernetică al Anthropic, Mythos, acuzând compania că folosește marketing bazat pe frică pentru a-l promova. Anthropic a declarat că modelul este prea puternic pentru a fi lansat public, o afirmație pe care unii critici o consideră exagerată.

OpenAI și Anthropic continuă să își lanseze atacuri reciproce. În această săptămână, în timpul unei apariții la un podcast, CEO-ul OpenAI, Sam Altman, a criticat noul model de securitate cibernetică al competitorului său, susținând că firma folosește frica pentru a face produsul să pară mai impresionant decât este în realitate.
Mythos de la Anthropic și lansarea limitată
Anthropic a anunțat Mythos la începutul acestei luni, punând modelul la dispoziția unui grup restrâns de clienți enterprise. Compania a susținut că Mythos este prea puternic pentru a fi lansat publicului larg, din îngrijorarea că infractorii cibernetici l-ar putea transforma într-o armă. Criticii au afirmat că această retorică este exagerată.
Critica lui Altman privind „marketingul bazat pe frică”
În timpul unei apariții în podcastul Core Memory, Altman a sugerat că abordarea Anthropic echivalează cu „marketing bazat pe frică” și a indicat că aceasta ar putea contribui la menținerea sistemelor avansate de inteligență artificială în mâinile unei elite restrânse și exclusive.
„Există oameni în lume care, de mult timp, au dorit să păstreze inteligența artificială în mâinile unui grup mai mic de persoane”, a spus el. „Poți justifica acest lucru în multe moduri diferite.”
„Este în mod evident un marketing incredibil să spui: «Am construit o bombă, suntem pe cale să o aruncăm deasupra capului tău. Îți vom vinde un adăpost antiatomic pentru 100 de milioane de dolari»”, a adăugat el.
Frica și exagerarea în industria AI
Marketingul bazat pe frică nu a fost inventat de Anthropic. Se poate spune că o mare parte din industria inteligenței artificiale a folosit tactici alarmiste și hiperbole pentru a-și face instrumentele să pară puternice.
Retorica continuă despre cum inteligența artificială ar putea duce la sfârșitul lumii nu a venit doar din partea așa-numiților activiști „doomer”; ea a venit și de la cei care vând această tehnologie publicului — inclusiv Altman.