Perché Alan Kay ha detto: "Internet è stato fatto così bene, ma il web è stato da dilettanti"?

84

OK, quindi ho parafrasato. La citazione completa:

The Internet was done so well that most people think of it as a natural resource like the Pacific Ocean, rather than something that was man-made. When was the last time a technology with a scale like that was so error-free? The Web, in comparison, is a joke. The Web was done by amateurs. -- Alan Kay.

Sto cercando di capire la storia di Internet e del web, e questa affermazione è difficile da capire. Ho letto altrove che Internet è ora utilizzato per cose molto diverse da quelle per cui è stato progettato, e quindi forse anche per fattori.

Cosa rende Internet così ben fatto e cosa rende il Web così dilettevole?

(Naturalmente, Alan Kay è fallibile, e nessuno qui è Alan Kay, quindi possiamo Non so esattamente perché lo abbia detto, ma quali sono alcune possibili spiegazioni?)

* Vedi anche l'intervista originale *.

    
posta kalaracey 24.03.2013 - 03:52
fonte

10 risposte

61

In realtà elabora proprio quell'argomento nella seconda pagina dell'intervista. Non sono le carenze tecniche del protocollo che si lamenta, è la visione dei progettisti di browser web. Come ha detto:

You want it to be a mini-operating system, and the people who did the browser mistook it as an application.

Fornisce alcuni esempi specifici, come la pagina di Wikipedia su un linguaggio di programmazione che non è in grado di eseguire programmi di esempio in quella lingua e la mancanza di modifica WYSIWYG, anche se era disponibile nelle applicazioni desktop molto prima che esistesse il web. 23 anni dopo, stiamo appena riuscendo a iniziare a risolvere i limiti imposti dalle decisioni di progettazione originali del browser Web.

    
risposta data 24.03.2013 - 14:30
fonte
79

In un certo senso, aveva ragione. Le versioni originali (pre-specifiche) di HTML, HTTP e URL erano progettate da dilettanti (non persone dello standard). E ci sono aspetti dei rispettivi modelli ... e le successive (originali) specifiche ... che sono (per dirla educatamente) non buone come avrebbero potuto essere. Ad esempio:

  • HTML non ha separato la struttura / il contenuto dalla presentazione e ha richiesto una serie di revisioni ... e ulteriori specifiche (CSS) ... per rimediare a questo.

  • HTTP 1.0 era molto inefficiente, richiedeva una nuova connessione TCP per ogni "documento" recuperato.

  • La specifica URL era in realtà un tentativo di decodificare una specifica per qualcosa che era essenzialmente ad hoc e incoerente. Ci sono ancora buchi nell'area di definizione degli schemi e le regole di sintassi per gli URL (ad esempio, cosa deve essere evaso dove sono) sono barocche.

E se ci fossero stati più standard "professionali" a persone coinvolte in precedenza, molti di questi "miss-steps" potrebbero non essere stati fatti . (Certo, non lo sapremo mai.)

Tuttavia, il web ha avuto un grande successo nonostante queste cose. E tutto il merito dovrebbe andare alle persone che l'hanno fatto accadere. Indipendentemente dal fatto che fossero o meno "dilettanti" al momento, non sono sicuramente dei dilettanti ora.

    
risposta data 24.03.2013 - 04:11
fonte
26

Sembra che sia dovuto a un fondamentale disaccordo tra Alan Kay e il popolo (principalmente Tim Berners-Lee) che ha progettato il web, su come dovrebbe funzionare un sistema del genere.

Il browser ideale, secondo Kay, dovrebbe essere davvero un mini sistema operativo con un solo compito: eseguire in modo sicuro il codice scaricato da Internet. Nel design di Kays, il web non consiste di pagine, ma di "oggetti" di scatole nere che possono contenere qualsiasi tipo di codice (purché sia sicuro). Questo è il motivo per cui dice che un browser non dovrebbe avere caratteristiche. Un browser non avrebbe bisogno di dire un parser HTML o un motore di rendering, dal momento che tutto questo dovrebbe essere implementato dagli oggetti. Questa è anche la ragione per cui a lui non sembrano piacere gli standard. Se il contenuto non viene visualizzato dal browser ma dall'oggetto stesso, non è necessario uno standard.

Ovviamente questo sarebbe immensamente più potente del web oggi dove le pagine sono vincolate dai bug e dalle limitazioni degli attuali browser e standard web.

La filosofia di Tim Berners-Lee, l'inventore del web, è quasi l'esatto opposto. Il documento " Il principio di minima potenza " descrive i principi di progettazione alla base HTTP, HTML, URL ecc. Indica il vantaggio delle limitazioni. Ad esempio, avere un linguaggio dichiarativo ben specificato come HTML è più facile da analizzare, il che rende possibile i motori di ricerca come Google. L'indicizzazione non è realmente possibile in Kays web di oggetti black-box completi di turing. Quindi la mancanza di vincoli sugli oggetti li rende in realtà molto meno utili. Quanto sono preziosi gli oggetti potenti se non riesci a trovarli? E senza una nozione standard di link e URL, l'algoritmo di page rank di Google non poteva funzionare. E nemmeno i segnalibri per quella materia. Ovviamente il web black box sarebbe totalmente inaccessibile anche per gli utenti disabili.

Un altro problema è la produzione di contenuti. Ora abbiamo vari strumenti, ma fin dall'inizio qualsiasi dilettante potrebbe imparare a creare una pagina html nel blocco note. Questo è ciò che ha dato il via al web e l'ha fatto diffondere a macchia d'olio. Considera se l'unico modo in cui potresti creare una pagina web ti richiede di iniziare a programmare il tuo motore di rendering? La barriera all'ingresso sarebbe immensa.

Le applet Java e Silverlight assomigliano in una certa misura alla visione di Kays. Entrambi i sistemi sono molto più flessibili e potenti del web (dato che è possibile implementare un browser in essi), ma soffrono dei problemi descritti sopra. E entrambe le tecnologie sono fondamentalmente morte nell'acqua.

Tim Berners-Lee era un informatico che aveva esperienza con reti e sistemi informatici prima di inventare il web. Sembra che Kay non capisca le idee dietro il web, e quindi crede che i designer siano dei dilettanti senza conoscere la storia dell'informatica. Ma Tim Berners-Lee non era certamente un dilettante.

    
risposta data 27.03.2015 - 14:36
fonte
22

Ho letto questo perché Kay non è abbastanza familiare con i protocolli di livello più basso per supporre che siano significativamente più puliti del Web di livello superiore. L'era "progettata da professionisti" di cui parla ancora ha avuto grossi problemi di sicurezza (lo spoofing è ancora troppo facile), affidabilità e prestazioni, motivo per cui c'è ancora un nuovo lavoro in fase di messa a punto di tutto per l'alta velocità o alta collegamenti di perdita di pacchetti. Torna indietro di poco e i nomi degli host sono stati risolti cercando un file di testo che le persone dovevano distribuire!

Entrambi i sistemi sono sistemi eterogenei complessi e presentano notevoli difficoltà di compatibilità all'indietro ogni volta che si desidera riparare una verruca. È facile individuare i problemi, è difficile risolverli e, dal momento che la gamma di concorrenti falliti dimostra che è sorprendentemente difficile progettare qualcosa di equivalente senza passare attraverso la stessa curva di apprendimento.

Come un biologo potrebbe dire a un sostenitore del design intelligente, se si guarda uno dei due e si vede il design geniale non si guarda abbastanza da vicino.

    
risposta data 25.03.2013 - 13:23
fonte
9

Ahh sì, ho chiesto ad Alan questa domanda un certo numero di volte, ad esempio quando era a Potsdam e sul mailing fonc lista . Ecco un preventivo più recente dalla lista che a mio avviso ha riassunto abbastanza bene:

After literally decades of trying to add more and more features and not yet matching up to the software than ran on the machines the original browser was done on, they are slowly coming around to the idea that they should be safely executing programs written by others. It has only been in the last few years -- with Native Client in Chrome -- that really fast programs can be safely downloaded as executables without having to have permission of a SysAdmin.

La mia comprensione delle sue varie risposte è che pensa che i browser web non dovrebbero mostrare documenti (HTML), possibilmente arricchiti, ma semplicemente eseguire programmi. Personalmente penso che abbia torto in questo, anche se posso vedere da dove viene. Abbiamo già avuto questo genere di cose con ActiveX, applet Java, Flash e ora applicazioni JavaScript "ricche", e l'esperienza in generale non era buona, e la mia opinione personale è che anche adesso la maggior parte dei siti pesanti di JavaScript sono un passo indietro dal buon HTML siti, non uno stop avanti.

In teoria, ovviamente, tutto ha senso: provare ad aggiungere interattività in modo frammentario a ciò che fondamentalmente è il linguaggio di descrizione del documento è arretrato e simile all'aggiunta di sempre più epicicli al sistema tolemaico, mentre la risposta "giusta" è capire quel (ricco) testo è un caso speciale di un programma e quindi dovremmo semplicemente inviare programmi.

Tuttavia, dato il successo pratico del WWW, penso che sia saggio modificare le nostre teorie piuttosto che sbattere il WWW per avere il coraggio di non conformarsi alle nostre teorie.

    
risposta data 25.03.2013 - 19:10
fonte
4

Non si può davvero dire che Internet o il Web siano stati inventati da dilettanti o professionisti perché quei campi sono assolutamente nuovi; tutte le persone erano dilettanti nei protocolli Internet prima di essere inventate così da un punto di vista anche gli inventori di Internet erano dilettanti.

Se dovessimo essere davvero critici, Internet non era poi così eccezionale: è necessario IPv6. E non si tratta solo dello spazio degli indirizzi; IPv6 ha una nuova intestazione con meno campi diversi.

Un'altra grande differenza da Internet e dal Web è il modo in cui vengono percepiti dal programmatore; un programmatore raramente interagisce con Internet. Dal suo punto di vista in IP avete gli indirizzi e in TCP avete una porta in più e siete certi che i pacchetti vengono inviati. Questo è tutto ... Mentre con Web il programmatore ha un'interazione più intensa: metodi HTTP, intestazioni, HTML, URL, ecc. È normale vedere i limiti di qualcosa con molte più possibilità rispetto a qualcosa con quasi nessuna possibilità. Con questo non voglio dire che Internet sia semplice: al di sotto è un po 'complesso ma questa complessità è gestita da ingegneri di reti e telecomunicazioni e si tratta di configurare qualcosa in un numero limitato di possibilità mentre nel web hai praticamente illimitato possibilità, ma il compito di costruire applicazioni complesse che si basano solo sull'invio di pacchetti.

Per quanto riguarda la grandezza di queste due tecnologie, Internet è così apprezzata perché è una tecnologia molto scalabile e l'idea della stratificazione è stata molto buona; fondamentalmente ai livelli più bassi è possibile utilizzare qualsiasi tecnologia desiderata (WLAN, Ethernet, Token Ring ecc.) e avere IP come protocollo intermedio standard su cui sono posizionati TCP e UDP e sopra il quale si può sostanzialmente aggiungere il protocollo applicativo desiderato.

La grandezza del Web è strettamente legata alla grandezza di Internet perché il Web si basa strongmente su Internet, con lo stack TCP / IP sottostante. Ma direi che Internet dipende anche dal web; Internet esisteva 20 anni prima del Web ed era un po 'anonimo ma 20 anni dopo il Web, Internet è onnipresente e tutto questo grazie al Web.

    
risposta data 24.03.2013 - 10:10
fonte
4

Penso che stesse indicando qualcosa di meno oscuro - TBL non sapeva nulla del lavoro ipertestuale che era stato fatto negli anni '60, quindi questo lavoro non ha informato il design del web. Parla spesso di informatica come cultura pop, in cui i professionisti non conoscono la loro storia e continuamente "reinventano la gomma a terra".

    
risposta data 24.03.2013 - 21:57
fonte
4

Internet ha funzionato molto bene come prototipo del concetto di commutazione dei pacchetti scoperto da Baran, Pouzin e contemporanei. Contrariamente all'opinione popolare, ciò non significa che IPv4 sia trasmesso come l'architettura di protocollo perfetta, o che IPv6 sia la strada da percorrere. John Day, che è stato profondamente coinvolto nello sviluppo di ARPANET e IP, lo spiega nel suo libro del 2008 Modelli di architettura di rete .

Per quanto riguarda il Web, nelle parole di Richard Gabriel, "Peggio è meglio". L'account di Tim Berners-Lee, Weaving The Web , è decente. How The Web Was Born di Gillies & Cailliau è più denso e meno leggibile, ma ha un sacco di dettagli e alcuni collegamenti affascinanti con altri eventi nel personal computing al momento. Non credo che Kay gli dia abbastanza credito.

    
risposta data 25.03.2013 - 12:31
fonte
1

Non so, alcune parti del web non web hanno delle verruche orribili. L'e-mail era prima del web, e fa parte di Internet, e lo standard è molto aperto e richiede un sacco di hack in cima per affrontare (ma non risolvere) il problema dello spam.

    
risposta data 25.03.2013 - 14:03
fonte
0

"Amatoriale" non si riferisce alla mancanza di capacità di programmazione, ma alla mancanza di immaginazione.

Il problema alla base del web di Tim Berners-Lee è che non è mai stato creato per gli sviluppatori . (Questo è in netto contrasto con il web di Alan Kay.)

Il web di Tim è stato creato per i non-programmatori che pubblicherebbero sul web direttamente dilettandosi con i file contenenti le loro riviste / articoli intervallati da HT-markup-language: è come gli anni '80 WordPerfect e MS-Word , eccetto che useranno " < b > < / b > " invece di cliccare sull'icona B , e lo salverebbero come " aperto". htm "invece di un formato proprietario" .doc ". L'invenzione qui è il tag " < a > ", che consente a questi giornali / articoli statici di essere interconnessi globalmente.

E questo è tutto, questa è l'intera visione web di Tim: la sua rete è una mere autostrada globale di interlinked static -articles. Forse se avessi i soldi, puoi comprare un editor come Dreamweaver, Nexus , Publisher, Citydesk (? ), ecc., che ti aiutano a generare tutti quei tag " < b > < / b > " facendo clic sull'icona B .

.. E vediamo come la sua visione non ha funzionato come previsto. In effetti, ci sono potenti bandiere rosse fin dall'inizio che il mondo aveva voluto molto più di quello che offre la visione di Tim:

  • Bandiera rossa 1: la rapida ascesa di "smart CGI" (PHP).

  • Bandiera rossa 2: la rapida ascesa di "smart HTML" (Javascript).

In questi giorni, abbiamo ancora più bandiere rosse come l'aumento di Chrome-OS-is-the-browser-is-the-OS ( esattamente ciò che Alan Kay aveva previsto che il browser fosse ) e WASM / estensioni per browser.

Al contrario del web di Tim, il web di Alan Kay, d'altra parte, è un web dinamico creato per i programmatori: una strada pubblica globale di programmi interconnessi dinamici . I non codificatori che necessitano di una "pagina" ne pubblicherebbero semplicemente uno utilizzando un programma sul Web . (E il programma stesso era ovviamente scritto da programmatori, non da dilettanti HTML.)

.. Questo è esattamente lo status quo del web di Tim negli anni 2000, ma se avessimo il web di Alan, sarebbe stato fatto negli anni '90: invece del mondo che aveva "wordpress and friendster" solo negli anni 2000, li avremo invece quando il web è iniziato negli anni '90.

.. Allo stesso modo, invece di avere programmi come Steam, Visual Studio, Warcraft, VM Ware sul web negli anni 2040, li avremo invece proprio adesso negli anni 2010. (Il ritardo di più decadi è dovuto al fatto che questi programmi già sono stati creati per il sistema operativo-non-il-browser, riducendo così l'incentivo economico a farli ricostruire sul sistema operativo. il browser-is-the-OS.)

Quindi questo è ciò che le persone intendono quando dicono che Tim Berners-Lee ha ucciso il True Dynamic Web spingendo il suo "shabby web statico" sul mondo. Hai mai sentito parlare dei termini "web 2.0", "web 3.0"? Sarebbero stati semplicemente chiamati "Il Web" se avessimo il web di Alan invece del web di Tim. Ma il web di Tim richiede una revisione costante perché è così statico .

Ovviamente, tutte le speranze non sono perse, in quanto il Web può essere rimodellato comunque come i rivenditori di browser lo definiscono. Ma il punto è che tutte queste cose "sanguinolente" che stanno "inventando" sul web ora sono cose che sono già state inventate molto tempo fa. Potremmo già averlo tutto oggi, non domani.

    
risposta data 12.04.2017 - 03:28
fonte

Leggi altre domande sui tag