Introducere în rețelele neuronale convoluționale

Rețelele neuronale convoluționale, cunoscute și sub denumirea de CNN sau ConvNet intră în categoria rețelelor neuronale artificiale utilizate pentru procesarea și vizualizarea imaginilor. Inteligența artificială folosește învățarea profundă pentru a îndeplini sarcina. Rețelele neuronale sunt fie hardware, fie software programat ca neuroni în creierul uman. Rețeaua neuronală tradițională ia doar imagini cu rezoluție redusă ca intrări. CNN rezolvă această problemă aranjându-și neuronii ca lob frontal al creierului uman. Pre-procesarea pe CNN este foarte mică în comparație cu alți algoritmi. Convoluție, o operație matematică liniară este utilizată pe CNN. Folosește convoluția în loc de înmulțirea matricei generale într-unul din straturile sale.

Straturi în rețele neuronale convoluționale

Mai jos sunt straturile rețelelor neuronale convoluționale:

1. Strat de intrare a imaginii

Stratul de intrare oferă intrări (în majoritate imagini) și se realizează normalizarea. Mărimea de intrare trebuie menționată aici.

2. Strat convolutiv

Convoluția este realizată în acest strat, iar imaginea este împărțită în perceptroni (algoritm), sunt create câmpuri locale ceea ce duce la comprimarea perceptrelor pentru a caracteriza hărțile ca matrice cu dimensiunea mx n.

3. Strat de non-liniaritate

Aici hărțile caracteristice sunt luate ca intrare și hărțile de activare sunt date ca ieșire cu ajutorul funcției de activare. Funcția de activare este, în general, pusă în aplicare ca funcții tangente sigmoide sau hiperbolice.

4. Strat de rectificare

Componenta crucială a CNN, acest strat face antrenamentul mai rapid, fără a reduce precizia. Efectuează o operație de valoare absolută în condiții de element pe hărțile de activare.

5. Unități lineare rectificate (ReLU)

ReLU combină straturi non-liniare și de rectificare pe CNN. Aceasta face operațiunea de prag în care valorile negative sunt convertite la zero. Cu toate acestea, ReLU nu modifică dimensiunea intrării.

6. Strat de pooling

Stratul de colectare se mai numește și strat de prelevare, deoarece acesta este responsabil pentru reducerea dimensiunii hărților de activare. La volumul de intrare se aplică un filtru și un pas de aceeași lungime. Datele mai puțin semnificative sunt ignorate de acest strat, de aceea recunoașterea imaginii se face într-o reprezentare mai mică. Acest strat reduce supraîncadrarea. Deoarece cantitatea de parametri este redusă folosind stratul de colectare, costul este, de asemenea, redus. Intrarea este împărțită în regiuni de pooling dreptunghiulare și se calculează maxim sau mediu, ceea ce returnează maxim sau mediu în consecință. Max Pooling este unul popular.

7. Strat de abandon

Acest strat stabilește la întâmplare stratul de intrare la zero cu o probabilitate dată. Mai multe rezultate în diferite elemente sunt eliminate după această operație. Acest strat ajută, de asemenea, la reducerea supraîncadrării. Aceasta face ca rețeaua să fie redundantă. Nici o învățare nu se întâmplă în acest strat. Această operație se realizează numai în timpul antrenamentului.

8. Strat complet conectat

Hărțile de activare, care sunt rezultatele straturilor anterioare, se transformă într-o distribuție de probabilitate de clasă în acest strat. Stratul FC înmulțește intrarea cu o matrice de greutate și adaugă vectorul de prejudecată.

9. Strat de ieșire

Stratul FC este urmat de softmax și straturi de clasificare. Funcția softmax este aplicată la intrare. Stratul de clasificare calculează funcția de inter-entropie și pierdere pentru probleme de clasificare.

10. Strat de regresie

Jumătate de eroare pătrată medie este calculată în acest strat. Acest strat trebuie să urmeze stratul FC.

Arhitectura rețelei neuronale convoluționale

Mai jos sunt arhitectura rețelelor neuronale convoluționale:

1. LeNet

LeNet a fost introdus pentru recunoașterea optică și a caracterului în documente în 1998. Este mic și perfect pentru rularea în procesor. LeNet este mic și ușor de înțeles. Aceasta este construită cu trei idei principale: câmpuri receptive locale ponderi comune și subamplasare spațială. Rețeaua prezintă cea mai bună reprezentare internă a imaginilor brute. Are trei straturi convoluționale, două straturi de colectare, unul complet conectat și un strat de ieșire. Un strat convolutional a fost urmat imediat de stratul de adunare. Toate straturile sunt explicate mai sus.

2. AlexNet

AlexNet a fost dezvoltat în 2012. Această arhitectură a popularizat CNN în computer vision. Are cinci straturi convoluționale și trei complet conectate în care ReLU este aplicat după fiecare strat. Obține avantajele ambelor straturi, deoarece un strat convolutional are câțiva parametri și calcul lung, și este opus pentru un strat complet conectat. Suprafațarea a fost redusă foarte mult prin creșterea și abandonarea datelor. AlexNet a fost mai profund, straturile mai mari și convolutive nu sunt separate prin acumularea stratului în comparație cu LeNet.

3. Net ZF

ZF Net a fost dezvoltat în 2013, care a fost o versiune modificată a AlexNet. Mărimea stratului convolutional mijlociu a fost extinsă și dimensiunea primului strat convolutional și dimensiunea filtrului au fost mai mici. Doar a recunoscut deficiențele lui AlexNet și a dezvoltat-o ​​pe una superioară. Toate straturile sunt la fel ca AlexNet. ZF Net ajustează parametrii stratului, cum ar fi dimensiunea filtrului sau pasul AlexNet, ceea ce îl face să reducă ratele de eroare.

4. GoogLeNet

Această arhitectură a fost dezvoltată în 2014. Stratul inițial este conceptul principal. Acest strat acoperă zona mai mare, dar notează informațiile mici ale imaginii. Pentru a îmbunătăți performanța, nouă module de început sunt utilizate în GoogLeNet. Având în vedere că stratul inițial este predispus la adaptare, aici sunt utilizate mai multe neliniarități și mai puțini parametri. Stratul de adunare maximă este utilizat pentru a concatena ieșirea stratului anterior. Această arhitectură are 22 de straturi, iar parametrii sunt de 12x mai puțini. Acest lucru este mai precis decât AlexNet, mai rapid. Rata de eroare este comparativ mai mică. Stratul mediu de colectare este utilizat la sfârșit în loc de un strat complet conectat. Calculul este redus, adâncimea și lățimea sunt crescute. Multe module de pornire sunt conectate pentru a merge mai profund în arhitectură. GoogLeNet a depășit toate celelalte arhitecturi dezvoltate până în 2014. Mai multe versiuni de monitorizare sunt disponibile pentru această arhitectură.

5. Net VGG

Aceasta a fost o îmbunătățire față de ZFNet și ulterior față de AlexNet. Are 16 straturi cu 3 × 3 straturi convoluționale, 2 × 2 straturi de colectare și straturi complet conectate. Această arhitectură adoptă cea mai simplă structură de rețea, dar are majoritatea parametrilor.

6. ResNet

Arhitectura rețelei reziduale a fost dezvoltată în 2015. Folosește normalizarea lotului și omite utilizarea straturilor FC. Această arhitectură folosește 152 de straturi și folosește conexiunile de salt ResNet este folosit mai ales în toate algoritmii de învățare profundă acum.

Concluzie

Facebook folosește CNN pentru etichetarea imaginilor, Amazon pentru recomandări despre produse și Google pentru a căuta printre fotografiile utilizatorilor. Toate acestea sunt realizate cu o mai mare precizie și eficiență. Progresul învățării profunde a atins o etapă în care CNN a fost dezvoltat și ajută în multe feluri. Pe măsură ce CNN devine complicat, ajută la îmbunătățirea eficienței.

Articol recomandat

Acesta este un ghid pentru rețelele neuronale convoluționale. Aici discutăm Introducere în rețelele neuronale convoluționale și straturile sale împreună cu Arhitectură. Puteți parcurge și alte articole sugerate pentru a afla mai multe -

  1. Clasificarea rețelei neuronale
  2. Învățare de mașini și rețea neuronală
  3. Prezentare generală a algoritmilor rețelei neuronale
  4. Rețele neuronale recurente (RNN)
  5. Implementarea rețelelor neuronale
  6. Top 6 comparații între CNN și RNN

Categorie: