La visione artificiale include:
- Riconoscimento dei caratteri (conversione di un'immagine in testo)
- Riconoscimento volti (rilevamento di una faccia in un'immagine)
- Riconoscimento oggetto (rilevamento di vari oggetti in un'immagine)
- Riconoscimento umano (rilevamento di una forma umana in un'immagine)
- Rilevamento del movimento / Tracciamento oggetto (rilevamento movimenti / movimento)
Tutti questi sono tra i vari rami della visione artificiale. Tutti questi possono utilizzare l'apprendimento automatico per addestrare il programma a rilevare le cose. Quindi non sarebbero tutti molto simili, in quanto l'unica differenza sarebbe dire al programma di cercare cosa?
Come se tentassi di rilevare Testo , il programma cercherebbe di separare ciascuna lettera e, a seconda della giuntura, della curva e della forma, determinerà quale lettera è.
E se sto cercando di rilevare una Faccia , il programma cercherà caratteristiche facciali come occhi, naso, bocca e forma del viso.
E se sto cercando di rilevare un oggetto , il programma cercherebbe i bordi.
E se sto cercando di individuare un umano , il programma cercherebbe testa, corpo e arti.
E se sto facendo Motion Detection , sarà fondamentalmente la rilevazione dell'oggetto mentre catturi il suo movimento.
So che sto semplificando eccessivamente le cose, ma il mio punto è - supponiamo che qualcuno stia cercando di creare una libreria / programma per la visione artificiale e che crei un programma di apprendimento con alcuni parametri (che cosa rilevare), funzionerebbe? Sarebbe troppo complesso? Sto trascurando alcune barriere tecniche che impedirebbero che ciò sia possibile?