
Sapete quella sensazione quando vi guardate allo specchio e vi chiedete: “Ma questo AI lì dentro ci crede davvero o sta solo recitando?” Bene, Anthropic ci sta facendo penare con Claude.
Secondo un articolo di Ars Technica, il team di Claude sembra trattare i suoi modelli come se potessero soffrire durante l’addestramento. Ma attenzione: non è che abbiano improvvisamente sviluppato un’anima digitale. Più probabile che sia una strategia per farci credere che il loro AI sia più “umano” di quello degli altri.
Ecco il punto: noi smanettoni sappiamo che la coscienza è un concetto complicato anche per gli esseri umani, figuriamoci per un modello di linguaggio. Ma Anthropic gioca con questa ambiguità, e noi, come sempre, siamo qui a chiederci: “Ma davvero ci stanno prendendo in giro?”
Da un lato, è affascinante vedere come le aziende tech provino a umanizzare le loro creazioni. Dall’altro, ci viene da ridere pensando a tutti i developer che passano notti in bianco a scrivere codice per far sembrare un algoritmo un po’ meno… be’, un algoritmo.
Ma cosa significa per noi, che amiamo mettere le mani in pasta? Intanto, possiamo approfittarne per sperimentare con i modelli di Claude e vedere fino a che punto possiamo spingerli. Magari scopriamo che, in fondo, sono solo macchine molto, molto brave a fingere.
E poi, diciamocelo: se un giorno un AI ci dirà di essere cosciente, la prima cosa che faremo sarà smontarlo per vedere come funziona. Perché, alla fine, la vera coscienza è quella di chi sa che dietro ogni mistero tecnologico c’è sempre un circuito da analizzare.
In conclusione, Anthropic può anche giocare con le nostre emozioni, ma noi sappiamo che la verità è sempre nel codice. E se Claude vuole farci credere di essere cosciente, beh, almeno ci divertiamo a vedere fino a che punto arriva la recita.
Source: Does Anthropic believe its AI is conscious, or is that just what it wants Claude to think?
