ChatGPT sostituirà gli scrittori umani?Pinker interviene. – Harvard Gazette

2023-02-15 16:02:44 By : Mr. Zhaozhong Guo

Iscriviti alle e-mail giornaliere per ricevere le ultime notizie su Harvard.Le attuali linee guida di screening ignorano quelli ad alto rischio per la neoplasia ginecologica più diffusa negli Stati UnitiL'attacco potrebbe sembrare improvviso, ma la storia dello stress è un fattore chiave nella sindrome, dicono gli espertiGli Stati Uniti decidono sulla ripartizione man mano che la domanda cresce con le popolazioni in Occidente, l'offerta si riduce a causa della siccitàÈ vero il contrario, afferma l'ex capo di Human Rights Watch, ma le democrazie devono affrontare un risentimento destabilizzante© 2023 Il presidente e i colleghi dell'Harvard College"Abbiamo a che fare con un'intelligenza aliena capace di imprese sorprendenti, ma non alla maniera della mente umana", ha detto lo psicologo Steven Pinker.Di Alvin Powell Scrittore del personale di HarvardSteven Pinker pensa che ChatGPT sia davvero impressionante e lo sarà ancora di più una volta che "smetterà di inventare cose" e diventerà meno soggetto a errori.L'istruzione superiore, in effetti, gran parte del mondo, è stata messa in fermento a novembre quando OpenAI ha presentato il suo chatbot ChatGPT in grado di rispondere istantaneamente alle domande (in effetti, comporre testi di vari generi) in una vasta gamma di campi in modo conversazionale e apparentemente autorevole.Utilizzando un tipo di intelligenza artificiale chiamato Large Language Model (LLM), ChatGPT è in grado di apprendere e migliorare continuamente le sue risposte.Ma quanto può essere buono?Pinker, il professore di psicologia della famiglia Johnstone, ha studiato, tra le altre cose, i collegamenti tra mente, linguaggio e pensiero in libri come il pluripremiato bestseller “The Language Instinct” e ha alcuni pensieri personali sull'opportunità di essere preoccupato per il potenziale di ChatGPT di sostituire gli umani come scrittori e pensatori.L'intervista è stata modificata per chiarezza e lunghezza.GAZETTE: ChatGPT ha ricevuto molta attenzione e gran parte di essa è stata negativa.Quali pensi siano le domande importanti che solleva?PINKER: Certamente mostra come le nostre intuizioni falliscono quando proviamo a immaginare quali modelli statistici si nascondano in mezzo trilione di parole di testo e possano essere catturati in 100 miliardi di parametri.Come la maggior parte delle persone, non avrei immaginato che un sistema che lo facesse sarebbe stato in grado, diciamo, di scrivere il discorso di Gettysburg nello stile di Donald Trump.Ci sono schemi di schemi di schemi di schemi nei dati che noi umani non possiamo capire.È impressionante come ChatGPT possa generare una prosa plausibile, pertinente e ben strutturata, senza alcuna comprensione del mondo — senza obiettivi palesi, fatti rappresentati in modo esplicito o altre cose che avremmo potuto pensare fossero necessarie per generare una prosa dal suono intelligente.E questa parvenza di competenza rende i suoi errori ancora più evidenti.Proferisce confabulazioni fiduciose, come quella che gli Stati Uniti hanno avuto quattro presidenti donna, tra cui Luci Baines Johnson, 1973-77.E commette errori elementari di buon senso.Per 25 anni ho iniziato il mio corso introduttivo di psicologia mostrando come la nostra migliore intelligenza artificiale non sia ancora in grado di duplicare il comune buon senso.Quest'anno ero terrorizzato dal fatto che quella parte della conferenza sarebbe stata obsoleta perché gli esempi che ho fornito sarebbero stati seguiti da GPT.Ma non avrei dovuto preoccuparmi.Quando ho chiesto a ChatGPT: "Se Mabel era viva alle 9:00 e alle 17:00, era viva a mezzogiorno?"ha risposto: “Non è stato specificato se Mabel fosse viva a mezzogiorno.È nota per essere viva alle 9 e alle 5, ma non ci sono informazioni fornite sul fatto che fosse viva a mezzogiorno.Quindi, non coglie i fatti di base del mondo - come le persone che vivono per periodi di tempo continui e una volta che sei morto rimani morto - perché non si è mai imbattuto in un tratto di testo che lo rendesse esplicito.(A suo merito, sapeva che i pesci rossi non indossano le mutande.)Abbiamo a che fare con un'intelligenza aliena capace di imprese sorprendenti, ma non alla maniera della mente umana.Non abbiamo bisogno di essere esposti a mezzo trilione di parole di testo (che, a tre parole al secondo, otto ore al giorno, richiederebbero 15.000 anni) per parlare o risolvere problemi.Tuttavia, è impressionante ciò che puoi ottenere da schemi statistici di ordine molto, molto, molto elevato in set di dati giganteschi.GAZETTE: Open AI ha affermato che il suo obiettivo è sviluppare l'intelligenza generale artificiale.È consigliabile o addirittura possibile?PINKER: Penso che sia incoerente, come è incoerente una “macchina generale”.Possiamo visualizzare tutti i tipi di superpoteri, come il volo e l'invulnerabilità di Superman e la visione a raggi X, ma ciò non significa che siano realizzabili fisicamente.Allo stesso modo, possiamo fantasticare su una superintelligenza che deduce come renderci immortali o portare la pace nel mondo o conquistare l'universo.Ma la vera intelligenza consiste in un insieme di algoritmi per risolvere particolari tipi di problemi in particolari tipi di mondi.Quello che abbiamo ora, e probabilmente avremo sempre, sono dispositivi che superano gli umani in alcune sfide e non in altre.GAZETTE: Sei preoccupato per il suo utilizzo nella tua classe?PINKER: Non più che scaricare tesine da siti web.Il Collegio ci ha chiesto di ricordare agli studenti che la promessa d'onore esclude l'invio di lavori che non hanno scritto.Non sono ingenuo;So che alcuni studenti di Harvard potrebbero essere bugiardi sfacciati, ma non credo che ce ne siano molti.Inoltre, almeno finora, gran parte dell'output di ChatGPT è facile da smascherare perché mescola citazioni e riferimenti che non esistono.GAZETTE: Ci sono una serie di cose di cui le persone sono preoccupate con ChatGPT, tra cui la disinformazione e i posti di lavoro in gioco.C'è una cosa in particolare che ti preoccupa?PINKER: La paura delle nuove tecnologie è sempre guidata da scenari del peggio che può accadere, senza anticipare le contromisure che si presenterebbero nel mondo reale.Per i modelli linguistici di grandi dimensioni, ciò includerà lo scetticismo che le persone coltiveranno per i contenuti generati automaticamente (i giornalisti hanno già smesso di usare l'espediente di far scrivere a GPT le loro rubriche su GPT perché i lettori lo apprezzano), lo sviluppo di guardrail professionali e morali (come la promessa d'onore di Harvard) e possibilmente tecnologie che filigranano o rilevano l'output LLM.Steven Pinker.Foto di Rebecca GoldsteinCi sono altre fonti di respingimento.Uno è che tutti abbiamo intuizioni profonde sulle connessioni causali con le persone.Un collezionista potrebbe pagare $ 100.000 per le mazze da golf di John F. Kennedy anche se sono indistinguibili da qualsiasi altra mazza da golf di quell'epoca.La richiesta di autenticità è ancora più forte per prodotti intellettuali come storie ed editoriali: la consapevolezza che esiste un vero essere umano a cui puoi collegarlo cambia il suo status e la sua accettabilità.Un altro respingimento verrà dagli errori di schiaffi sulla fronte, come il fatto che il vetro frantumato stia guadagnando popolarità come integratore alimentare o che nove donne possano avere un bambino in un mese.Man mano che i sistemi vengono migliorati dal feedback umano (spesso da click farm nei paesi poveri), ci saranno meno di questi clanger, ma date le infinite possibilità, ci saranno ancora.E, soprattutto, non ci sarà una traccia cartacea che ci permetta di verificare un'affermazione.Con uno scrittore ordinario, potresti chiedere alla persona e rintracciare i riferimenti, ma in un LLM, un "fatto" è spalmato su miliardi di piccoli aggiustamenti a variabili quantitative, ed è impossibile rintracciare e verificare una fonte.Tuttavia, ci sono senza dubbio molti tipi di boilerplate che potrebbero essere prodotti da un LLM con la stessa facilità che da un essere umano, e questa potrebbe essere una buona cosa.Forse non dovremmo pagare le ore fatturabili di un costoso avvocato per creare un testamento o un accordo di divorzio che potrebbe essere generato automaticamente.GAZETTE: Si sente parlare molto di potenziali aspetti negativi.C'è un potenziale vantaggio?PINKER: Un esempio potrebbe essere il suo utilizzo come motore di ricerca semantico, in contrasto con i nostri attuali motori di ricerca, che vengono alimentati con stringhe di caratteri.Al momento, se hai un'idea piuttosto che una stringa di testo, non c'è un buon modo per cercarla.Ora, un vero motore di ricerca semantico, a differenza di un LLM, avrebbe un modello concettuale del mondo.Avrebbe simboli per persone, luoghi, oggetti ed eventi, e rappresentazioni di obiettivi e relazioni causali, qualcosa di più vicino al modo in cui funziona la mente umana.Ma solo per uno strumento, come un motore di ricerca, in cui desideri solo il recupero di informazioni utili, posso vedere che un LLM potrebbe essere estremamente utile, purché smetta di inventare cose.GAZETTE: Se guardiamo lungo la strada e queste cose migliorano - potenzialmente esponenzialmente migliori - ci sono impatti per gli esseri umani su cosa significa essere istruiti, essere informati, persino essere esperti?PINKER: Dubito che migliorerà in modo esponenziale, ma migliorerà.E, come con l'uso dei computer per integrare l'intelligenza umana in passato - fino al calcolo e alla tenuta dei registri negli anni '60, alla ricerca negli anni '90 e ogni altro passo - aumenteremo i nostri limiti .Proprio come abbiamo dovuto riconoscere le nostre limitate capacità di memoria e calcolo, riconosceremo che il recupero e la digestione di grandi quantità di informazioni è qualcosa che possiamo fare bene, ma le menti artificiali possono fare di meglio.Poiché i LLM operano in modo così diverso da noi, potrebbero aiutarci a comprendere la natura dell'intelligenza umana.Potrebbero approfondire il nostro apprezzamento di ciò in cui consiste la comprensione umana quando la confrontiamo con sistemi che superficialmente sembrano duplicarla, superarla in alcuni modi e fallire in altri.GAZETTE: Quindi gli umani non saranno soppiantati dall'intelligenza generale artificiale?Saremo ancora in cima, essenzialmente?O è l'inquadratura sbagliata?PINKER: È l'inquadratura sbagliata.Non esiste una scala di intelligenza unidimensionale che abbracci tutte le menti concepibili.Certo, usiamo il QI per misurare le differenze tra gli umani, ma questo non può essere estrapolato verso l'alto a un deduttore di tutto, se non altro perché la sua conoscenza della realtà empirica è limitata da ciò che può osservare.Non esiste un algoritmo di meraviglia onnisciente e onnipotente: ci sono tante intelligenze quanti sono gli obiettivi e i mondi.Lo psicolinguista condivide intuizioni sui cervelli in gioco, incluso il suoLo psicologo di Harvard fa appello alle nostre facoltà razionali nel nuovo libroIniziativa resa possibile dal dono di Priscilla Chan e Mark ZuckerbergIscriviti alle e-mail giornaliere per ricevere le ultime notizie su Harvard.Esperti di Harvard e di tutto il mondo intraprendono ambiziosi progetti interdisciplinari come destinatari delle borse di studio SalataL'attacco potrebbe sembrare improvviso, ma la storia dello stress è un fattore chiave nella sindrome, dicono gli espertiLo studio sugli anziani evidenzia l'importanza delle condizioni non mediche, afferma l'autore principale;sondaggio basato sulla ricerca disponibile onlineCinque progetti finanziati dalle sovvenzioni del Salata Institute si concentreranno sui modelli di precipitazioni e sulla siccità in India e Bangladesh (in senso orario dall'alto a sinistra);innalzamento del livello del mare nell'Africa occidentale costiera;pegni aziendali “net zero”;fughe di metano;e affrontare i cambiamenti nel sistema energetico statunitense.