C'è una ragione per l'iniziale eccesso di fiducia di scienziati e ingegneri che lavorano sull'intelligenza artificiale negli anni '60?

20

Ho appena iniziato un AI & Classe di data mining e il libro. La programmazione delle applicazioni AI, inizia con una panoramica della storia di AI. Il primo capitolo tratta della storia dell'intelligenza artificiale dagli anni '40 ai giorni nostri. Una frase in particolare mi ha colpito:

[In the 60s] AI engineers overpromised and underdelivered...

Qual è stata la ragione per l'eccessiva sicurezza? È stato a causa di modelli matematici di predizione che mostrano che una svolta è dietro l'angolo, o a causa della capacità hardware sempre crescente di sfruttare?

    
posta Jason 03.09.2011 - 17:50
fonte

11 risposte

29

La mia opinione personale è che fosse dovuto a hubris . C'erano alcuni possenti grandi ego che percorrevano le sale del MIT, Stanford, ecc. Negli anni '60 e '70 e loro sapevano che avevano risolto questo problema. A destra.

Sebbene non fossi parte di quell'universo in quei giorni, a metà degli anni '80 stavo lavorando con la ricerca delle somiglianze. Il nostro lavoro era inizialmente basato sulla ricerca fatta da Gerard Salton a Cornell negli anni '60, che utilizzava vettori di attributi ponderati per rappresentare documenti e interrogazioni. In realtà era un approccio utilizzabile, ma quando le reti neurali sono andate a fuoco (almeno fino a quando non hanno scoperto back propagation ), il lavoro di Salton è stato incluso con esso a causa delle somiglianze (gioco di parole) alle reti neurali. Stava cercando di fare qualcosa di diverso, ma ci sono stati diversi anni in cui è stato accontentato con il resto.

Ogni volta che qualcuno presenta una soluzione per il Current Brick Wall ™ si eccitano e dichiarano che l'intelligenza artificiale è un problema risolto. Solo che non lo è. Perché dietro quel muro di mattoni è un altro. Questo ciclo si è ripetuto, e ancora e ancora, e non solo in AI. Sono fermamente convinto che tutti i futuri scienziati e ingegneri informatici dovrebbero essere richiesti per seguire una lezione semestrale nella storia del computing, con un'enfasi particolare sul numero di Next Big Things ™ che è salito come missili. .. e poi fatto un cratere molto grande nel fondovalle.

Addendum: ho trascorso il weekend del Labor Day con un vecchio amico e ne abbiamo parlato un po '. Contesto - capire che cosa significa, come rappresentarlo e come usarlo - è emerso probabilmente come l'ostacolo più grande da chiarire. E più a lungo lo guardi, più grande diventa un ostacolo. Gli esseri umani sono capaci di corrispondere in modo quasi istantaneo e quasi istantaneo di "ciò che sta accadendo" contro una vasta riserva di "ciò che è accaduto prima", e quindi combinare quella conoscenza del passato con la situazione attuale per creare un contesto in cui la comprensione può portare all'azione. Ad esempio, possiamo utilizzarlo come un potente filtro di "cose che possiamo / non possiamo ignorare" mentre scorgiamo Waldo Grade a 60 km / h con traffico a 4 corsie al passo e separati da soli 3 o 4 piedi (o meno!).

Nello spettro di stuff > data > information > knowledge > understanding > judgement ci stiamo ancora sforzando di arrivare ai passi di informazione / conoscenza, e anche che è limitato a domini del discorso .

    
risposta data 03.09.2011 - 18:29
fonte
16

Molto semplicemente, hanno massicciamente sottostimato la portata del problema in questione, specialmente quando si tratta di un'esplosione combinatoriale. Molte soluzioni di intelligenza artificiale funzionano bene per campioni "giocattolo", ma falliscono quando si risolvono in problemi a livello umano.

Probabilmente, erano anche semplicemente inesperti. L'IA come campo era (relativamente) appena stato inventato solo in termini di applicazioni pratiche, quindi nessuno aveva esperienza significativa applicando la teoria a qualcosa.

    
risposta data 04.09.2011 - 01:05
fonte
14

Posso pensare a un paio di motivi.

L'IA ha avuto un successo così rapido con alcuni dei problemi del giocattolo affrontati tra la fine degli anni '50 e l'inizio degli anni '60, che hanno sopravvalutato ciò che avevano realizzato. ELIZA e SHRDLU hanno stordito la gente nonostante fossero programmi relativamente semplici. Sfortunatamente, gran parte di ciò che rendeva stupefacenti quei programmi era in realtà solo una novità. Nessuno è rimasto molto impressionato da una conversazione con ELIZA oggi, ma all'epoca la gente pensava che fosse quasi miracoloso.

Inoltre, poiché i problemi sono "risolti" o almeno diventano rintracciabili, la gente non li considera lungamente come AI. L'ottimizzazione del codice era un problema di intelligenza artificiale. L'apprendimento statistico è nato dall'IA nella sua specialità e ha preso il riconoscimento vocale con esso. Dato che il data mining diventa mainstream, perderà la sua associazione con l'intelligenza artificiale. Nel corso del tempo l'IA dimentica i suoi successi e rimane bloccata aggrappandosi ai problemi intrattabili e insolubili, e finisce per sembrare un flop.

    
risposta data 04.09.2011 - 00:20
fonte
11

AI ha una lunga storia di delusioni, ma penso che molti critici spesso semplificino eccessivamente ciò che è accaduto, come ad esempio con la tua citazione "Gli ingegneri degli anni '60 sono stati eccessivamente promessi e consegnati insufficienti".

Negli anni '60, l'IA era il dominio di una manciata di ricercatori (il campo non era ancora sufficientemente sviluppato per chiamarlo ingegneria), per lo più nelle università, e pochissimi di loro erano programmatori esperti.

L'improvvisa disponibilità di macchine informatiche negli anni '50 aveva portato a grandi aspettative per l'automazione, in particolare nella traduzione automatica del linguaggio naturale, giocando a scacchi e problemi simili. Potresti trovare alcune previsioni effettive di successo da quei giorni, ma le promesse sono inevitabilmente arrivate PRIMA che qualcuno abbia affrontato uno di questi problemi in profondità. (Oppure, presumevano erroneamente che un successo garantisse un altro, come aspettarsi di essere in grado di implementare buoni scacchi giocando dopo Samuel molto successo con le pedine.)

Inoltre, diffidare delle affermazioni di "hanno detto", "hanno sentito", "hanno pensato", ecc .; le opinioni retrospettive (come questa!) sono facili da aggirare, mentre le prove documentate di previsioni reali da parte di "esperti" (coloro che hanno effettivamente provato a risolvere un dato problema) possono essere molto più difficili da trovare.

L'overpromising e la mancata consegna sono sempre stati un sintomo dello sviluppo del software, indipendentemente dal campo specifico in cui viene applicata la programmazione. Una delle maggiori difficoltà con l'intelligenza artificiale è che i problemi non banali vanno oltre le capacità della maggior parte degli ingegneri. Ad esempio, sebbene la risposta di Charles E. Grant classifica ELIZA e SHRDLU come "relativamente semplici", direi che è vero solo per ELIZA (che la maggior parte degli studenti di programmazione del primo anno potrebbe probabilmente implementare senza troppe difficoltà). D'altra parte, SHRDLU è un programma ampio, estremamente sofisticato che la maggior parte dei programmatori avrebbe avuto un momento molto difficile nell'inventare e nel implementare. In effetti, due team di studenti universitari non potevano nemmeno ottenere nuovamente il codice sorgente di nuovo in esecuzione e le abilità simili a SHRDLU sono ancora difficili da trovare al giorno d'oggi, oltre 40 anni dopo.

Dato che l'intelligenza artificiale è probabilmente uno dei problemi meno compresi e più intrattabili in cui i computer possono essere applicati, nel complesso direi che i progressi nell'IA sono stati generalmente alla pari per il corso. Ci sono ancora grandi aspettative , e la nostra velocità e capacità hardware sono aumentate enormemente dagli anni '60, ma direi le capacità e la comprensione dei tecnici di IA non stanno migliorando molto, quindi un Santo Graal come passare il test di Turing è ancora probabilmente molto lontano, e la perseveranza e la sottopubblicazione probabilmente continueranno per qualche tempo.

    
risposta data 05.09.2011 - 18:28
fonte
11

Penso che le persone negli anni '60 usassero la loro esperienza umana per dividere i problemi in "problemi difficili" e "problemi facili": cose come vincere gli scacchi, risolvere enigmi logici, risolvere equazioni matematiche ci sembrano difficili per noi umani. Cose come comprendere i linguaggi naturali o trovare i contorni degli oggetti in un'immagine sembrano facili, perché il nostro cervello fa tutto il lavoro senza uno sforzo cosciente. Quando proviamo a spiegare come facciamo queste cose, arriviamo a spiegazioni semplici come "Le frasi inglesi hanno sempre la struttura soggetto-predicato-oggetto dove il soggetto può essere un semplice termine o una frase ...", oppure "Io sono cercare i bordi e collegarli ai confini dell'oggetto ". Oggi sappiamo che le cose non sono così semplici, ma solo perché tutte le soluzioni semplici (e molte non così semplici) sono state provate e non hanno funzionato.

Inoltre, questo errore non è iniziato negli anni '60: ci sono secoli di ricerca su come risolvere quei "problemi difficili" (euristica, teoria dei giochi, teoria delle decisioni, matematica, logica, ecc.) ma io sono, non certo nessuno si è mai preso la briga di ricercare come le lingue naturali potrebbero essere analizzate prima degli anni '50.

E anche oggi, puoi trovare regolarmente domande su StackOverflow, in cui le persone chiedono come possono analizzare le frasi inglesi, stimare l'età di una persona in un'immagine, giudicare se un'immagine è "sicura per lavoro" o se due immagini mostrano la stessa cosa. Non credo che le persone che fanno queste domande soffrano di eccessiva arroganza o arroganza: questi problemi sembrano così semplici, è incredibile che non non sia un semplice algoritmo per risolverli.

    
risposta data 05.09.2011 - 19:50
fonte
5

Penso che la ragione fosse l'arroganza. Se fossi stato un ingegnere negli anni '60 lavorando su AI, sarei stato abbastanza arrogante me stesso.

Penso che per realizzare grandi cose, devi raggiungere grandi cose. Quindi l'overpromising non è necessariamente una cosa negativa finché non superi il limite. Oggi gli scienziati stanno promettendo cose che non credo saranno possibili, ma se non ci riusciranno, perderemo ciò che verrà conseguito come risultato.

    
risposta data 03.09.2011 - 18:31
fonte
4

Può essere molto difficile arrivare da qualche parte quando non sai dove stai andando.

Se avessimo una qualche ragionevole spiegazione di cosa sia l'intelligenza e come funzioni, forse avremmo una possibilità di mimetizzarla efficacemente. Il test di Turing è affascinante e utile, ma probabilmente non è sufficiente per aiutarci a modellare la vera intelligenza. Per quanto ne sappiamo, un "modello" di intelligenza potrebbe anche non essere sufficiente per la vera intelligenza.

    
risposta data 06.09.2011 - 14:38
fonte
2

Bene, direi che è più o meno la stessa cosa che sta accadendo con OWL al momento. Guardati intorno e cerca di tracciare paralleli.

Sembra buono sulla carta, sembra funzionare bene sui problemi del giocattolo, diventa incredibilmente complicato sulla maggior parte dei dati reali.

    
risposta data 05.09.2011 - 19:06
fonte
2

Oltre alle buone risposte fornite, due osservazioni:

Alcune citazioni del giorno sembrano implicare che molti dei ricercatori stessero pensando che le soluzioni banali potrebbero essere ridimensionate una volta progettati i computer una volta più veloci. Per alcuni tipi di sistemi di apprendimento questo era molto vero, ma per quel tipo di cose penso che l'OP si riferisca ad esso in realtà non è migliorato in scala.

I ricercatori all'epoca avevano una stima molto bassa della complessità della mente umana (concentrarsi su idee come il test di Turing, l'idea che le persone usassero solo una piccola percentuale del loro cervello, ecc.). L'intelligenza artificiale a livello di un animale semplice è stata raggiunta con alcune misure mentre le cose si sono ingrandite, ma il salto ad un livello umano di intelligenza artificiale era molto più grande del previsto. Ciò ha portato alcuni ricercatori a provare a imparare sistemi per bambini e altre simulazioni di crescita / evoluzione come un tentativo di colmare questa lacuna.

    
risposta data 06.09.2011 - 02:16
fonte
1

Uno dei motivi era il successo che stavamo avendo ELSEWHERE negli anni '60. Avevamo appena lanciato nello spazio, e presto atterreremmo un uomo sulla luna. Avevamo appena scoperto cure per la polio e altre malattie importanti.

Ma "intelligenza artificiale" era un animale diverso dai problemi "ingegneristici" che abbiamo affrontato in quel momento. Era un "ragionamento", piuttosto che un problema "meccanico".

In breve, AI (negli anni '60) era un'idea "il cui tempo non era ancora arrivato". Ci volle più sviluppo, nei decenni successivi, prima che diventasse accessibile come gli altri problemi.

    
risposta data 06.09.2011 - 20:44
fonte
0

Un altro motivo potrebbe essere il fatto che padroneggiare un computer / programmi di scrittura computer ci regala una sensazione di onnipotenza - anzi, si creano piccoli universi, anche se chiusi.

Questo, oltre alla mancanza di educazione filosofica / epistemologica e alla fiducia ingenua in semplici spiegazioni come "l'intelligenza non è altro che ...." può portare all'hubris.

    
risposta data 06.09.2011 - 14:11
fonte

Leggi altre domande sui tag