Crea il tuo forum GRATIS su GlobalFreeForum.com.

Programma che ha un'anima

In questa sezione avverranno le discussioni sulla scienza e sulle arti. Si possono chiedere pareri e spiegazioni o postare i propri pensieri a riguardo di un argomento. Qui potete postare spiegazioni su un qualsiasi argomento: matematica, chimica, lingue etc...

Moderatori: Gruppo Admin, Gruppo Mod

Re: Programma che ha un'anima

Messaggioda Flame_Alchemist » 29/01/2013 - 18:43

Partiamo un secondo dal concetto di intelligenza. A questo punto forse abbiamo capito che non c'e' "intelligenza assoluta" (e con intelligenza intendo che sia senziente, capace di imparare, autocosciente, ecc e non il fatto che abbia X punti di QI), nel senso che un cane puo' essere considerato intelligente da te e non intelligente da me. Io, qui, quando dico intelligenza artificiale intendo intelligenza artificiale forte (strong AI). E questa ha come "definizione" il fatto che sia almeno "umana".

Secondo me anima e intelligenza derviano da autoreferenza, coscienza, ecc.. cose che si, certo si trovano nella nostra mente, ma che secondo me potrebbero esserci in
entità molto diverse da noi molto piu elementari e che pensano in modo diverso, entità anche incapaci di comunicare volendo.

Ma di nuovo, torniamo al mio punto di qualche post fa, come fai a verificare se X e' intelligente se non puoi osservare i suoi comportamenti (quindi, in linea di massima, *comunicarci*, anche se tu continui a confonderlo con parlare, nonostante negli ultimi due post abbia posto un accento su questa distinzione)?

a) l'interpretazione che abbiamo no della relazione botta e risposta del nostro dialogo con lui è solo nostra, ha senso per noi è come l'interpretazione dei movimenti di un formicaio, appartiene a noi, già il sw potrebbe aver fatto un ragionamento completamente diverso e dentro di lui ciò potrebbe avere tutto il senso del mondo.
per esempio hai mai pensato che forse con la velocità delle cpu di oggi lui è come se ragioni migliaia di volte piu veloce? quindi una nostra frase per lui potrebbe essere l'equivalente del caso in cui a noi uno ci parla in slow motion (tipo ciiiiiaaaaaauuuuoooo) una parola all'anno? cosa risponderesti tu? cose sensate? cose che a lui sembrerebbero sensate?

Di nuovo, per verificare se qualcuno e' (per noi) intelligente, si presuppone di poter instaurare una comunicazione (ancora, che non significa parlarci) significativa. Se io ti rispondessi solo lettere a caso probabilmente non prenderesti neanche in considerazione l'ipotesi che sia intelligente.
c) potrebbe non voler rispondere , potrebbe non poterlo fare, non avere quel tipo di capacità, o voler fingere, oppure potrebbe essere l'equivalente di un bimbo autistico.
un bimbo autistico non ha un'anima perchè non supera il test di turing? dai è assurdo

Rispondo in maniera ordinata a 1. potrebbe non voler rispondere, 2. non polerlo fare, ...
1. Se uno ti fa una domanda, di solito, e' cortesia rispondere, in qualche modo.
2. Se ricordi, in Godel, Escher Bach (che mi pare di capire tu abbia letto), in uno degli ultimi dialoghi (se non l'ultimissimo, non ho il libro a portata di mano), il granchio chiede al computer di comporre una poesia. Lui risponde che la poesia non e' il suo forte, sbaglia una moltiplicazione, e cosi' via. Non ci sarebbe niente di male. Il test di Turing non misura le capacita' dure e pure di un AI, ma solo la sua capacita' di imitare un uomo. Ed e' perfettamente normale per un uomo fissato (per esempio, me) non riuscire a comporre una fuga, nonostante ci siano uomini che riescono a farlo.
3. E' proprio lo scopo del test di Turing, portare il computer a fingere di essere un uomo. Poi, se vuole fingere di essere un sasso, basta, non sarebbe sicuramente la fine del mondo. Sarebbe etichettato come "non intelligente". A te piacerebbe? Ecco, se la parte da misurare fosse intelligente probabilmente non lo vorrebbe.
4. I bambini autistici hanno comunque capacita' di comunicazione (disegni, e cosi' via). Comunque, l'autismo e' abbastanza raro nella vita biologica, dovrebbe esserlo almeno altrettanto nella vita artificiale, se non addirittura piu' raro, considerando che l'uomo potrebbe avere una buona parte nel disegno di una entita' di questo tipo.

Comunque, tutto cio' che hai nominato finora sono casi limite e sono un po' arrampicature sugli specchi. Che fra l'altro sono quasi tutti esclusi dal test di Turing stesso, che prevede di imitare un uomo (sottointeso normodotato), che comunica ad con un giudice, attraverso un modo inteso da entrambi. Toglie una parte di tutte le intelligenze possibili? Probabile. Ma si vuole verificare che sia un essere intelligente quanto un uomo. D'altra parte, per un essere avanzato imitare un uomo potrebbe essere molto facile. Il modo inteso da entrambi ti fa specie, anche, da quanto mi pare di capire. Purtroppo, come ho detto tre post fa, se Bach non avesse mai composto alcunche', non sarebbe considerato un grande compositore.

ma giudicare in generale l'intelligenza artificiale con una cosa del genere mi sembra sbagliato assurdo e forviante poichè spinge appunto a costruire un sw che passi il test, non a costruire intelligenza che sono due cose differenti, molto

Davvero? Se passa il test, in maniera sufficientemente brillante -- again, andrebbe definito cosa vuol dire brillante, per il momento accontentiamoci di dire non come ELIZA, che ogni tanto entra in un loop di "elabora su questo" -- potrebbe essere sufficiente. Cos'altro puo' fare un uomo? Di certo non possiamo verificare se abbia un'anima; questo possiamo solo assumerlo basandoci su ipotesi.
Forse sono materialista io, ecco, ma non credo ci sia molto di piu'.

per esempio un ia intelligente come un cane in ambito militare sarebbe molto apprezzata!

Quando si ha a disposizione un'intelligenza umana, accontentarsi di una "canina" e' un passo indietro.
To iterate is human, to recurse, divine. — L. P. Deutsch
I could be bound in a nutshell and count myself as a king of infinite space (Hamlet)
Non era proprio un genio – pensava che la figura che lui tracciava sul suo fianco nudo dopo il sesso fosse il numerale 8, per dare un'idea. — D. F. Wallace

N = 1 ==> P = NP [compscient]
Avatar utente
Flame_Alchemist
Gold Member
Gold Member
 
Messaggi: 861
Iscritto il: 14/08/2007 - 18:21

Re: Programma che ha un'anima

Messaggioda cyd » 29/01/2013 - 20:29

Flame_Alchemist ha scritto:Partiamo un secondo dal concetto di intelligenza. A questo punto forse abbiamo capito che non c'e' "intelligenza assoluta" (e con intelligenza intendo che sia senziente, capace di imparare, autocosciente, ecc e non il fatto che abbia X punti di QI), nel senso che un cane puo' essere considerato intelligente da te e non intelligente da me. Io, qui, quando dico intelligenza artificiale intendo intelligenza artificiale forte (strong AI). E questa ha come "definizione" il fatto che sia almeno "umana".

ok, direi che abbiamo trovato il punto.
io invece intendo tutto l'intervallo dalla weak alla strong.
direi che questa divergenza è fondamentale e che discordando su questa premessa potremmo parlare invani per pagine e pagine, dunque
potremmo chiudere questa aprentesi in poco e ritornare intopic.

detto questo
io considero ia anche i sw appartenenti alla weak ia, come mai potrei prender eil test di turing come criterio generale se riguarda solo una classe particolare di sw?
inoltre siamo daccordo che non è una condizione sufficiente inquanto esistono software che non rientrerebbero nemmeno nella weak che lo hanno passato. dunque da parte mia potrebbe essere solo un test utile per una particolare classe di sw ma un test su cui non basare assolutamente la definizione di intelligenza inquanto non è condizione sufficiente.




Flame_Alchemist ha scritto:Ma di nuovo, torniamo al mio punto di qualche post fa, come fai a verificare se X e' intelligente se non puoi osservare i suoi comportamenti (quindi, in linea di massima, *comunicarci*, anche se tu continui a confonderlo con parlare, nonostante negli ultimi due post abbia posto un accento su questa distinzione)?


no, non le confondo. nei miei primi post era la prima obiezione quella che il sw potrebbe poter comunicare in altre maniere. e qui gia stai allargando il criterio generalizzandolo.
In ogni caso io posso reputare intelligenti anche sw appartenenti alla weak ia che non comunicano. posso osservarli ad esempio (come le formiche) per trarre le mie conclusioni e al test di turing manco ci penso.

Flame_Alchemist ha scritto:Di nuovo, per verificare se qualcuno e' (per noi) intelligente, si presuppone di poter instaurare una comunicazione (ancora, che non significa parlarci) significativa. Se io ti rispondessi solo lettere a caso probabilmente non prenderesti neanche in considerazione l'ipotesi che sia intelligente.

di nuovo, secondo me no.
se parli solo della strong ok, ci mancherebbe che non ci puoi comunicare, però il test rimane comunque una condizione necessaria ma non sufficiente, quindi anche nel campo ristretto della strong si, può essere un criterio per fissare una lowerbound notevole tagliando via tutto il resto, ma di sicuro avrai bisogno di altri test cche forniscano una prova SUFFICIENTE.
dunque ritorno alla mia obiezione primaria, cioè perchè basare la definizione di intelligenza su un test del genere che fornisce solo una LB ? (come appunto dceva blacklight a cui ho risposto)


Flame_Alchemist ha scritto:Rispondo in maniera ordinata a 1. potrebbe non voler rispondere, 2. non polerlo fare, ...
1. Se uno ti fa una domanda, di solito, e' cortesia rispondere, in qualche modo.
2. Se ricordi, in Godel, Escher Bach (che mi pare di capire tu abbia letto), in uno degli ultimi dialoghi (se non l'ultimissimo, non ho il libro a portata di mano), il granchio chiede al computer di comporre una poesia. Lui risponde che la poesia non e' il suo forte, sbaglia una moltiplicazione, e cosi' via. Non ci sarebbe niente di male. Il test di Turing non misura le capacita' dure e pure di un AI, ma solo la sua capacita' di imitare un uomo. Ed e' perfettamente normale per un uomo fissato (per esempio, me) non riuscire a comporre una fuga, nonostante ci siano uomini che riescono a farlo.
3. E' proprio lo scopo del test di Turing, portare il computer a fingere di essere un uomo. Poi, se vuole fingere di essere un sasso, basta, non sarebbe sicuramente la fine del mondo. Sarebbe etichettato come "non intelligente". A te piacerebbe? Ecco, se la parte da misurare fosse intelligente probabilmente non lo vorrebbe.
4. I bambini autistici hanno comunque capacita' di comunicazione (disegni, e cosi' via). Comunque, l'autismo e' abbastanza raro nella vita biologica, dovrebbe esserlo almeno altrettanto nella vita artificiale, se non addirittura piu' raro, considerando che l'uomo potrebbe avere una buona parte nel disegno di una entita' di questo tipo.

ma ancora stai parlando di un criterio molto piu generale del test di turing, ora ci sono disegni ecc..
e ancora rimane una condizione necessariam ma non sufficiente

Flame_Alchemist ha scritto:Comunque, tutto cio' che hai nominato finora sono casi limite e sono un po' arrampicature sugli specchi. Che fra l'altro sono quasi tutti esclusi dal test di Turing stesso, che prevede di imitare un uomo (sottointeso normodotato), che comunica ad con un giudice, attraverso un modo inteso da entrambi. Toglie una parte di tutte le intelligenze possibili? Probabile. Ma si vuole verificare che sia un essere intelligente quanto un uomo. D'altra parte, per un essere avanzato imitare un uomo potrebbe essere molto facile. Il modo inteso da entrambi ti fa specie, anche, da quanto mi pare di capire. Purtroppo, come ho detto tre post fa, se Bach non avesse mai composto alcunche', non sarebbe considerato un grande compositore.

Si, sono casi limite. ma è ancora lo stesso discorso. Il test è utile per fissare una LB ma a mio avviso non può essere preso come unaca discriminante


Flame_Alchemist ha scritto:
per esempio un ia intelligente come un cane in ambito militare sarebbe molto apprezzata!

Quando si ha a disposizione un'intelligenza umana, accontentarsi di una "canina" e' un passo indietro.

quando hai a disposizione un robot con l'intelligenza di un cane che ti riporta i feriti dai campi di battaglia senza rischiare altri uomioni non mi sembra un passo indietro...
Avatar utente
cyd
Utente
Utente
 
Messaggi: 257
Iscritto il: 17/05/2007 - 13:52

Re: Programma che ha un'anima

Messaggioda Flame_Alchemist » 29/01/2013 - 21:11

no, non le confondo. nei miei primi post era la prima obiezione quella che il sw potrebbe poter comunicare in altre maniere. e qui gia stai allargando il criterio generalizzandolo.

No, non sto allargando il criterio. Il test di Turing prevede la comunicazione tra due entita'. Turing, parlando di discriminare uomini e donne, suggerisce che si comunichi tramite una telescrivente (per evitare questioni di riconoscimento della grafia o della voce); cosa sia collegato alla telescrivente e' un dettaglio (tastiera, input audio, boh): credo che questo sia il minor problema. E' piu' importante che si comunichi in qualche modo, non come. E' una generalizzazione, questo e' forse vero in un senso filosofico e storico, Turing non aveva dietro molto a cui appoggiarsi per trovare critiche al suo test, ma in un senso piu' pratico non e' cosi' importante.

Il test è utile per fissare una LB ma a mio avviso non può essere preso come unaca discriminante...
e ancora rimane una condizione necessariam ma non sufficiente..

Si', come ho detto probabilmente escluderebbe una parte delle intelligenze. A mio avviso non e' un grosso problema. Considerando che io parlo di strong AI, in generale, per esse, non dovrebbe essere difficile passare il test di Turing.
La weak ai (e tutto cio' meno di strong ai) non dovrebbe passare il test di Turing, non avendo capacita' di pensiero simil umane (ipotesi fondamentale del test di Turing e necessario, secondo me, per essere senzienti -- ancora, senzienti = senzienti, autocoscienti, capaci di imparare, e altre cose di norma associate con l'essere umano). L'intelligenza artificiale debole e' un'altra questione. Non e' cosi' necessario misurare l'intelligenza debole, considerando che esiste per risolvere un problema definito, e non per adattarsi a piu' problemi reali. Per la versione debole basta vedere i risultati che produce, non serve null'altro.

quando hai a disposizione un robot con l'intelligenza di un cane che ti riporta i feriti dai campi di battaglia senza rischiare altri uomioni non mi sembra un passo indietro...

Considerando che, eventualmente, rischierei la vita di un robot con intelligenza umana non direi che sarebbe un grosso problema (sempre di robot si tratta). Un "robouomo" inoltre potrebbe fornire piu' informazioni che un robocane.

dunque ritorno alla mia obiezione primaria, cioè perchè basare la definizione di intelligenza su un test del genere che fornisce solo una LB ?

Perche' vorresti avere un upper bound sull'intelligenza? Non serve, non sappiamo qual e' il nostro upper bound attualmente.
To iterate is human, to recurse, divine. — L. P. Deutsch
I could be bound in a nutshell and count myself as a king of infinite space (Hamlet)
Non era proprio un genio – pensava che la figura che lui tracciava sul suo fianco nudo dopo il sesso fosse il numerale 8, per dare un'idea. — D. F. Wallace

N = 1 ==> P = NP [compscient]
Avatar utente
Flame_Alchemist
Gold Member
Gold Member
 
Messaggi: 861
Iscritto il: 14/08/2007 - 18:21

Re: Programma che ha un'anima

Messaggioda cyd » 30/01/2013 - 16:32

Flame_Alchemist ha scritto:
dunque ritorno alla mia obiezione primaria, cioè perchè basare la definizione di intelligenza su un test del genere che fornisce solo una LB ?

Perche' vorresti avere un upper bound sull'intelligenza? Non serve, non sappiamo qual e' il nostro upper bound attualmente.

[/quote]
no, non voglio definire una UB, stavo dicendo che il test definisce una lower bound sull'insieme dei sw candidati ad appartenere alla strong ia e questa LB mi pare piuttosto bassa poichè appunto sarebbe al di sotto di ELIZA che (almeno nel mio modo di vederE) non rientrerebbe nemmeno nella weak ia (dunque abbiamo una LB al di sotto della weak?),
quindi tale test non definisce chiaramente cosa lascia fuori e cosa tiene dentro poichè si basa sul test di una capacità propria delle strong ia ma emulabile anche da sw che non vi appartengono e non appartengono nemmeno alla weak ia. Dunque mi sembra fuori luogo scegliere questo test per caratterizzare un'intelligenza, non critico alla fine il test di turing di per se ma piuttosto critico
1) il fatto che ancora si caratterizzino dei sw usando questo test come bibbia, come "IL TEST", come il punto di riferimento.
semplicemente per me non basta, non è nulla di specialmente utile e nel caso in cui per ia non si intenda solo la strong ia è del tutto forviante.
2) il fatto che questa impostazione fa tendere le persone a vedere l'ia sotto un punto di vista che a me personalmente non piace, ossia quello dell'intelligenza artificiale come fratellino ritardato dell'intelligenza umana, invece che come autoreferenza, autocoscienza interpretazione ecc... primordialmente di per se. Ma queste sono opinioni.
Avatar utente
cyd
Utente
Utente
 
Messaggi: 257
Iscritto il: 17/05/2007 - 13:52

Precedente

Torna a Il Pozzo della conoscenza

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite

cron