Monitorare la definizione

Un'immagine vale più di mille parole, e questo è molto vero nell'informatica, poiché i dati non significano nulla per coloro che devono lavorare con essa se non possono essere rappresentati. E, soprattutto, il monitor ne è responsabile.

È una periferica che consente l'output grafico dei dati, utilizzando una tecnologia simile o identica a quella dei televisori.

Sebbene oggi ci possa sembrare che i monitor siano sempre stati presenti e collegati ai computer, all'inizio dello sviluppo dell'informatica non era così; i primi computer comunicavano con gli utenti tramite una striscia di carta stampata o accendendo singole luci.

Era logico che, per migliorare l'interattività, i computer facessero ricorso a una tecnologia che esisteva dalla metà degli anni '30 (la prima trasmissione televisiva fu quella delle Olimpiadi di Berlino nel 1936), ma che reso popolare dalla fine della seconda guerra mondiale: la televisione.

Basato su un tubo a raggi catodici (CRT), questa tecnologia ha permesso di ridisegnare le immagini sullo schermo con grande velocità e facilità, oltre a fornire ai computer una maggiore interattività e possibilità grafiche.

Non è stato fino agli anni '60 che i monitor hanno iniziato a essere utilizzati nei computer e la loro "esplosione" come periferica di uscita si è verificata negli anni '70, quando era già stata stabilita come standard.

Tuttavia, i primi monitor realizzati appositamente per i sistemi informatici consentivano solo il testo (modalità testo) ed erano monocromatici, una situazione che durò fino agli anni '80, almeno per la stragrande maggioranza degli utenti.

Anche la tecnologia del fosforo verde risale a quel momento, che non è tecnicamente diversa da quella dei tradizionali monitor CRT, ma che utilizzava un colore verde brillante che offriva un contrasto molto elevato.

È una tecnologia il cui principale vantaggio è la chiarezza nella visualizzazione di un singolo sguardo, ma che, in cambio, ha reso l'utente più stanco quando lo utilizza. Ed è ancora in uso, ad esempio, sui piccoli schermi dei registratori di cassa del supermercato.

Da qui, non solo arrivano i monitor a colori, ma anche una corsa per ottenere risoluzioni più elevate e schermi di area di visualizzazione più grandi riducendo il volume dell'hardware utilizzato.

Se i primi monitor monocromatici preparati solo per il testo, soffrivano dell'impossibilità di indirizzare i singoli pixel, i modelli successivi già consentono questa possibilità, dando origine alla grafica generata dal computer che viene utilizzata in più campi, incluso quello dei videogiochi.

Ciò ha anche dato origine a un intero gergo terminologico con cui sono state definite le diverse risoluzioni in grado di ottenere la combinazione di scheda grafica e monitor: CGA (320x200), VGA (640x480), EGA (640x350), SVGA (800x600), ...

La risoluzione è il rapporto dei pixel (il più piccolo punto di luce) per cui lo schermo è diviso orizzontalmente, per cui è diviso verticalmente.

Il passo successivo è stato quello di "appiattire" i monitor grazie alla tecnologia TFT, che ci ha lasciato gli schermi sempre più sottili e piatti che abbiamo oggi.

In questo modo, i monitor hanno anche incorporato altre funzionalità e, di fatto, la linea sottile che ha differenziato un televisore da un monitor per computer ha finito per scomparire.

Pertanto, i televisori hanno incorporato porte video tipiche dei computer, essendo in grado di agire efficacemente come monitor di questi, mentre i monitor dei computer hanno adottato altoparlanti o sintonizzatori DTT, che li ha portati a sostituire i televisori in alcuni famiglie.

Nel corso della storia, i monitor si evolvono in modo drammatico

Questi sono attualmente di alta qualità e possono anche essere collegati a televisori vicini o altri display. In combinazione con buone schede grafiche, sono un eccellente dispositivo di intrattenimento per la riproduzione di film e videogiochi, oltre a integrare l'esperienza dell'utente con il computer.

Oggi i monitor LCD sono diventati molto popolari come un miglioramento della tecnologia CRT di cui abbiamo parlato in precedenza. Nel caso del primo, il suo spessore gli consente di essere utilizzato nei notebook, hanno una geometria e una risoluzione dell'immagine migliori. D'altra parte, questi tipi di schermi non generano luce in se stessi, motivo per cui richiedono una fonte esterna.

Inoltre, l'angolo di visibilità completa è inferiore. Gli schermi CRT hanno una maggiore varietà di colori e possono riprodursi con risoluzioni diverse. Tuttavia, di solito sono di dimensioni maggiori e richiedono più spazio, oltre ad essere influenzati da altri campi elettrici circostanti.

Articoli Correlati