Le diverse lunghezze d'onda smentiscono il bianco e nero, ....
prova a dire una cosa del genere in un qualsiasi forum di fotografia, se ti andrà bene ti strapperanno la pelle e ti daranno in pasto ai coccodrilli.
un sensore fotografico, tarato per una frequenza predefinita, cattura le particelle che colpiscono i recettori trasformandoli in impulsi elettrici che vanno a finire nel sensore d'immagine che a sua volta li decifra in base al numero di particelle ricevute per pixel, questo determina la "luminosità" dell'immagine che sarà sempre e comunque monocromatica. lavorando solo sul bianco e nero e come detto prima, su una data frequenza, si riesce ad avere una definizione migliore e pulita dal rumore di fondo derivati dalle interferenze di raggi cosmici e altre tipologie di particelle. inoltre lavorando su uno spettro si evita il fenomeno delle dominanti cromatiche che possono modificare lo spettro di lettura del sensore e in definitiva, il colore reale.
questa semplice spiegazione te la puoi far dare da un qualsiasi fotografo esperto di astrofotografia, chiunque nel settore sa bene cosa significa fotografare il profondo cielo e i problemi intrinsechi di questa tecnica, solo un profano totalmente impreparato può uscirsene con una cosa del genere.
per altro, ogni tanto mi diletto anch'io nell'astrofotografia e spesso uso l'image composite per ottenere risultati migliori, specie nel rendimento cromatico.
qui ad esempio è la nebulosa m42 di orione, ottenuta senza inseguitore (purtroppo il mosso delle stelle è visibile, ma l'esperimento era mirato solo sulla resa cromatica), sommando 6 scatti, di cui due in bianco e nero, proprio per tentare il eliminare il rumore di fondo e cercare di dare alle frequenze del rosso la massima linearità con la frequenza di emissione, come si può anche notare guardando il colore delle altre stelle sullo sfondo.purtroppo il sensore è quello che, dovrei pesantemente modificarlo e usare ottiche apposite che lascino passare il segnale dell'infrarosso senza rifrazioni, tutte le normali ottiche fotografiche creano rifrazioni minando la nitidezza, ma NON è un problema, perchè i sensori hanno i filtri ir cut, questo però rende le normale fotocamere in commercio poco adatte all'astrofotografia, a meno di fare pesanti modifiche.
a parte ciò, i normali sensori fotografici in commercio hanno il pattern bayer
in una combinazione di 3 colori
(fuji usa lo schema xtrans mentre sigma usa quello foveon) che essenzialmente si compone di recettori cromatici con diversa frequenza di cattura, infatti l'immagine grezza ottenuta dal sensore è all'incirca una cosa del genere
in seguito il processore d'immagine "ripulisce" e ottimizza in base al range di cattura dell'occhio umano. alcune fotocamere stanno implementando la funzione pixelshift, ossia spostare il sensore in modo che l'immagine venga cattura 4 o più volte da tutti i pixel di diverso colore, cosa che migliora la nitidezza e la resa cromatica
praticamente una cosa simile a quella che fa hubble, ma molto più semplificata e ovviamente, imprecisa.
comunque sia questi sistemi vanno bene per l'uso normale di una fotocamera, ma nello spazio il range delle emissioni dello spettro luminoso va al di la della nostra sensibilità, quindi servono sensori dedicati capaci di modificare il range dello spettro di cattura per poi fondere tutto in posto produzione.
quindi no, cleto, NON ho confermato proprio una mazza delle tue idiozie, l'imbroglio di marte, come lo chiami tu, è una tua fisima perchè derivata dal fatto che NON hai la minima idea di cosa stai parlando. e NON ti spiego un cazzo perchè l'ho già fatto tempo fa in un altro thread dal quale sei fuggito, vattelo a rileggere e rispondi li, dove ti ho già asfaltato con dati, veri, alla mano.