Web Analytics Made Easy - Statcounter

[HOME PAGE] [STORES] [CLASSICISTRANIERI.COM] [FOTO] [YOUTUBE CHANNEL]

Xarxa neuronal - Viquip??dia

Xarxa neuronal

De Viquip??dia

Una xarxa neuronal artificial (XNA), tamb?? anomenada xarxa neuronal simulada o senzillament xarxa neuronal, ??s un conjunt de neurones artificials interconnectades que utilitza un model matem??tic o computacional de processament de dades basat en una aproximaci?? connexionista per a la computaci??. Els investigadors no es posen d'acord a l'hora de definir qu?? ??s una xarxa neuronal, per?? la majoria coincideix a dir que es tracta d'una xarxa d'elements de processament relativament simples en qu?? el funcionament global es troba determinat per les connexions entre els elements de processament i els par??metres d'aquests. La inspiraci?? original de la t??cnica es va extraure de l'estudi de les xarxes bioel??ctriques del cervell que estan formades per neurones i per les sinapsis d'aquestes (vegeu xarxa neuronal biol??gica). En un model de xarxa neuronal, els nodes (tamb?? anomenats neurones, neurodes, elements de processament o unitats) estan connectats per formar una xarxa de nodes i, per aix??, s'anomena xarxa neuronal.

Una xarxa neuronal ??s un conjunt de nodes interconectats, paregut al l'extens??ssima xarxa de neurones al cervell hum??.
Una xarxa neuronal ??s un conjunt de nodes interconectats, paregut al l'extens??ssima xarxa de neurones al cervell hum??.

Taula de continguts

[edita] Estructura

Com el cervell, una xarxa neuronal artificial ??s un conjunt paral??lel d'unitats de processament petites i simples on les interconnexions constitueixen una gran part de la intel??lig??ncia de la xarxa. No obstant aix??, les xarxes neuronals artificials s??n prou diferents del cervell pel que respecta a l'estructura. Per exemple, una xarxa neuronal ??s molt m??s menuda que el cervell. A m??s, les unitats utilitzades en una xarxa neuronal s??n, generalment, molt m??s simples que les neurones. Tot i aix??, algunes funcions que semblen exclusives del cervell, com ??s el cas de l'aprenentatge, s'han reprodu??t a escala m??s senzilla en les xarxes neuronals. Vegeu tamb??: neurona artificial, perceptr??

[edita] Models

En una xarxa neuronal t??pica, cada node funciona gaireb?? com una neurona biol??gica. En una neurona biol??gica, cada sinapsi d'entrada t?? un pes associat. Quan el pes de cada sinapsi, multiplicat per la seua entrada, se suma a totes les sinapsis entrants i aquesta suma ??s major que algun 'valor llindar', la neurona es dispara i envia un valor a una altra neurona de la xarxa. El node t??pic d'una xarxa neuronal intenta emular aquest funcionament. Cada node cont?? un conjunt de l??nies d'entrada que s??n an??logues a les sinapsis d'entrada d'una neurona biol??gica. A m??s, cada node t?? una 'funci?? d'activaci??' (coneguda tamb?? com 'funci?? de transfer??ncia') que li indica quan ha de disparar-se, semblant a all?? que ocorre en una neurona biol??gica. En la seua forma m??s senzilla, aquesta funci?? d'activaci?? pot generar un valor '1' si l'entrada sumada ??s major que algun valor, per?? si a???? no es produeix, generar?? un valor '0'. No obstant aix??, les funcions d'activaci?? no sempre s??n tan senzilles. De fet, per crear xarxes que puguen realitzar una tasca ??til, les funcions d'activaci?? quasi sempre han de ser m??s complexes per a, almenys, alguns dels nodes de la xarxa.

Una xarxa neuronal feedforward, un dels tipus de xarxes neuronals m??s comuns, est?? formada per un conjunt de nodes i connexions. Aquests nodes s'organitzen en capes. Generalment, les connexions es formen connectant cadascun dels nodes d'una determinada capa a totes les neurones de la seg??ent capa. D'aquesta manera, tots els nodes d'una determinada capa estan connectats a tots els nodes de la seg??ent.

Normalment, en una xarxa neuronal feedforward hi ha almenys tres capes: una capa d'entrada, una capa oculta i una capa de sortida. La capa d'entrada no processa res, ja que ??s en aquesta on el vector de dades alimenta la xarxa. Aix?? doncs, la capa d'entrada alimenta la capa oculta i aquesta, al seu torn, alimenta la capa de sortida. El processament real de la xarxa t?? lloc en els nodes de la capa oculta i de la capa de sortida.

Quan un nombre suficient de neurones estan connectades en capes, la xarxa es pot 'entrenar' per realitzar tasques ??tils usant un algorisme d'entrenament. Les xarxes feedforward, en concret, si estan entrenades apropiadament, s??n molts ??tils per realitzar tasques intel??ligents de classificaci?? o d'identificaci?? d'informaci?? desconeguda.

[edita] C??lculs

La corba sigmo??dal sovint s'utilitza com a funci?? de transfer??ncia perqu?? aquesta introdueix no-linealitat en els c??lculs de la xarxa en delimitar el nivell d'activaci?? de la neurona a un interval [0,1]. La funci?? sigmo??dal compta amb l'avantatge addicional de tenir una funci?? derivable molt simple, tal i com es requereix per retropropagar els errors a trav??s d'una xarxa neuronal feedforward. A m??s, poden utilitzar-se altres funcions amb caracter??stiques semblants. Majorit??riament, s'usa la funci?? tanh que delimita les activacions en l'interval [-1, 1] encara que, de vegades, tamb?? s'usa una funci?? lineal piece-wise que simplement talla l'activaci?? en compte de delimitar-la.

Funci?? sigmo??dal utilitzada com a funci?? d'activaci?? de les neurones
Funci?? sigmo??dal utilitzada com a funci?? d'activaci?? de les neurones

Si no s'introdueix no-linealitat que la delimita o la talla, la xarxa perd gran part del seu poder computacional i es converteix en una senzilla operaci?? de multiplicaci?? de matrius de l'??lgebra lineal.

Altres models de c??lculs alternatius de les xarxes neuronals inclouen models amb bucles en qu?? s'utilitzen processos amb retard i models el guanyador s'ho emporta tot on la neurona amb el major valor de c??lcul pren un valor 1 i totes les altres neurones prenen el valor 0.

Normalment, els pesos d'una xarxa neuronal s'inicien en uns valors aleatoris baixos. A???? mostra que la xarxa no t?? cap tipus de coneixement; la seua sortida ??s, b??sicament, una funci?? aleat??ria de l'entrada. A mesura que el proc??s d'entrenament avan??a, els pesos de les connexions es modifiquen gradualment segons les regles computacionals espec??fiques de l'algorisme d'aprenentatge que s'utilitza. Finalment, els pesos ideals convergeixen en uns valors que els permeten realitzar un c??lcul ??til. Es pot dir que, al comen??ament, les xarxes neuronals no tenen cap tipus de coneixement i tracten d'obtenir algun tipus de coneixement real, encara que aquest ??s subsimb??lic.

Les xarxes neuronals artificials (XNA) presenten alguns avantatges perqu?? s'assemblen als principis de l'estructura del sistema neuronal:

  • Aprenentatge: tenen la destresa d'aprendre mitjan??ant l'anomenada etapa d'aprenentatge.
  • Autoorganitzaci??: creen la seua pr??pia representaci?? de la informaci?? donada en el proc??s d'aprenentatge.
  • Toler??ncia a fallades: com que emmagatzemen informaci?? redundant, la destrucci?? parcial de la xarxa no perjudica del tot a la resposta de la xarxa.
  • Flexibilitat: poden manejar dades d'entrada sense canvis importants com ara senyals ac??stics o altres canvis en les dades d'entrada determinades (per exemple, si les dades d'entrada s??n un objecte, aquest pot ser un poc diferent i no ser un problema per a la resposta de la xarxa neuronal artificial).
  • Temps real: l'estructura de les xarxes neuronals ??s paral??lela; si s'implementen d'aquesta manera amb ordinadors o amb un maquinari especial, poden obtenir-se respostes en temps real.
  • Escalabilitat: poden adaptar-se a qualsevol problema d'una determinada ??rea.

[edita] Avantatges

Les xarxes neuronals artificials (XNA) presenten alguns avantatges perqu?? s'assemblen als principis de l'estructura del sistema neuronal:

  • Aprenentatge: tenen la destresa d'aprendre mitjan??ant l'anomenada etapa d'aprenentatge.
  • Autoorganitzaci??: creen la seua pr??pia representaci?? de la informaci?? donada en el proc??s d'aprenentatge.
  • Toler??ncia a fallades: com que emmagatzemen informaci?? redundant, la destrucci?? parcial de la xarxa no perjudica del tot a la resposta de la xarxa.
  • Flexibilitat: poden manejar dades d'entrada sense canvis importants com ara senyals ac??stics o altres canvis en les dades d'entrada determinades (per exemple, si les dades d'entrada s??n un objecte, aquest pot ser un poc diferent i no ser un problema per a la resposta de la xarxa neuronal artificial).
  • Temps real: l'estructura de les xarxes neuronals ??s paral??lela; si s'implementen d'aquesta manera amb ordinadors o amb un maquinari especial, poden obtenir-se respostes en temps real.
  • Escalabilitat: poden adaptar-se a qualsevol problema d'una determinada ??rea.

[edita] Aplicacions

[edita] Utilitat

Les xarxes neuronals artificials s??n especialment ??tils per a tractar amb dades de n??meros reals limitats en qu?? es requereix una sortida amb valor real. D'aquesta manera, les xarxes neuronals realitzaran una classificaci?? per nivells i s??n capaces d'expressar valors equivalents a no segur. Si la xarxa neuronal s'entrena utilitzant la funci?? d'error d'entropia creuada (vegeu l'obra Neural Networks for Pattern Recognition, escrita per Christopher M. Bishop) i la sortida de la xarxa ??s sigmo??dal, aleshores les sortides seran estimacions de la vertadera probabilitat posterior d'una classe.

[edita] Aplicacions en la vida real

En la vida real, les xarxes neuronals realitzen especialment b?? les seg??ents tasques:

  • Aproximaci?? de funcions (o an??lisi de regressi??)
  • Predicci?? de s??ries temporals
  • Classificaci??
  • Reconeixement de patrons

Altres tipus de xarxes neuronals i, en especial, les xarxes neuronals recurrents de temps continu s'utilitzen en combinaci?? amb els algorismes gen??tics (AG) per produir controladors per a robots. El genoma est?? constitu??t pels par??metres de les xarxes i la idone??tat d'una xarxa ??s l'adequaci?? del funcionament mostrat pel robot controlat (o sovint per una simulaci?? d'aquest funcionament). No obstant aix??, tamb?? pot utilitzar-se per al reconeixement d'iris.

[edita] Tipus de xarxes neuronals

[edita] Perceptr?? monocapa

Esquema d'un perceptr?? amb 2 entrades
Esquema d'un perceptr?? amb 2 entrades

El primer tipus de xarxa neuronal ??s el perceptr?? monocapa, format per una sola capa de nodes de sortida. Les entrades alimenten directament les sortides a trav??s d'una s??rie de pesos, per aix?? aquest pot considerar-se el tipus m??s senzill de xarxa feedforward. La suma dels productes dels pesos i de les entrades es calcula en cada node i, si el valor est?? per sobre un llindar (normalment el 0), la neurona es dispara i pren el valor activat (normalment l'1); si aix?? no ocorre pren el valor desactivat (normalment el -1). A les neurones amb aquest tipus de funci?? d'activaci?? tamb?? se???ls anomena neurones de McCulloch-Pitts o neurones de llindar, descrites als anys 40 per Warren McCulloch i Walter Pitts. En els textos especialitzats, el terme perceptr?? sol fer refer??ncia a les xarxes que consten nom??s d'una d'aquestes unitats.

Es pot crear un perceptr?? fent servir qualsevol valor de l'estat activat o del desactivat, sempre que el valor del llindar estiga entre els dos*. La major part dels perceptrons tenen sortides d'1 o de -1 amb un llindar de 0. A m??s, hi ha proves que a aquestes xarxes se???ls pot entrenar m??s r??pidament que a les xarxes creades per nodes amb valors d'activaci?? i de desactivaci?? diferents. Es pot emprar un algorisme simple d'aprenentatge, generalment anomenat regla delta, per entrenar els perceptrons. Aquest calcula els errors entre la sortida calculada i les dades de sortida de mostra, els empra per crear un reajustament de pesos i implementa aix?? una forma de descens del gradient.

AND linealment separableOR  linealment separableXOR  no linealment separable

Els perceptrons d'una sola una unitat sols poden aprendre models que s??n linealment separables. L'any 1969, una famosa monografia titulada Perceptrons, elaborada per Marvin Minsky i Seymour Papert, va mostrar que era impossible que un perceptr?? monocapa aprenguera la funci?? XOR. A m??s, els autors van conjecturar,per?? de manera equivocada, que ocorreria el mateix amb un perceptr?? multicapa.