Fotografare un buco nero

Senza titoloA photograph is  a  universe of dots. The grain, the halide, the little silver things clumped in the emulsion. […] This is what technology does. It peels back the shadows and redeems the dazed and rumbling past. It makes reality come true.

Don DeLillo, Underworld

 

di Alessandro Della Corte, Stefano Isola e Lucio Russo

Il 10 aprile scorso il progetto EHT (Event Horizon Telescope), un consorzio internazionale di circa duecento ricercatori e una quindicina di istituti di ricerca, ha diffuso la prima immagine mai apparsa di un buco nero ottenuta utilizzando dati osservativi e non simulando al calcolatore la soluzione di equazioni tratte dalla teoria. La notizia è stata sulle prime pagine in tutto il mondo, perfino su giornali come il Wall Street Journal e Il Sole 24 ore. Passato qualche giorno, quando il clamore è calato e altre notizie hanno fatto il giro del mondo (la Libia, Notre Dame, gli attentati in Sri Lanka), sembra il momento giusto per dedicare qualche riflessione distesa al significato dell’impresa del progetto EHT.

Non è facile spiegare cosa si intende per buco nero a persone che non hanno familiarità con gli strumenti matematici usati dalla fisica moderna. La definizione di Wikipedia – “una regione dello spaziotempo avente una curvatura sufficientemente grande, relativisticamente parlando, che nulla al suo interno può uscire all’esterno, nemmeno la luce” – presenta non solo il problema di usare alcune espressioni chiaramente tecniche, che andrebbero a loro volta definite se si vuole parlare a un pubblico generico, ma anche quello molto più insidioso di usare termini che apparentemente sono intesi nel senso che hanno nel linguaggio ordinario, ma che in realtà hanno un senso ben definito all’interno di un modello teorico (in particolare, questo vale per “regione” e “curvatura”, e in una certa misura anche per “luce”).

Per una prima idea intuitiva di cosa sia un buco nero possiamo tuttavia limitarci ad utilizzare semplici strumenti concettuali della fisica classica, come quello di velocità di fuga, ovvero la velocità minima che un oggetto deve possedere per potersi allontanare indefinitamente dal corpo celeste nei pressi del quale si trova, “vincendo”, per così dire, la sua attrazione gravitazionale. La velocità di fuga non dipende dalla massa dell’oggetto e a parità di dimensioni è proporzionale alla radice quadrata della densità del corpo celeste. Non è allora difficile immaginare la possibilità di corpi celesti così densi che la velocità di fuga da essi superi quella della luce, cosa che conferirebbe loro la proprietà di “trattenere” la stessa luce (supponendo quest’ultima composta di particelle soggette alla gravità), e dunque di essere di fatto invisibili. Questa possibilità è stata in effetti discussa già alla fine del Settecento da alcuni scienziati, tra cui Pierre-Simon Laplace. Un corpo così denso da potersi chiamare “buco nero”[1] sarebbe racchiuso da una superficie sferica (tanto più grande quanto più grande è la sua densità) con la proprietà che ogni oggetto che, attratto dalla gravità, ne penetrasse all’interno, potrebbe uscirne solo se fosse in grado di spostarsi con una velocità superiore a quella della luce.

I buchi neri di cui oggi parlano i fisici hanno una natura diversa, essendo inquadrati nella teoria della relatività generale. Poiché in relatività si assume che la velocità della luce non sia superabile, nessun oggetto che attraversa la superficie della zona da cui la luce non può uscire, detta “orizzonte degli eventi”, potrebbe tornare indietro[2]. Tuttavia, per seguire il nostro discorso, chi non ha familiarità con la formulazione matematica della relatività generale (chi la conosce sa già cosa si intende per buco nero) può pensare semplicemente a un “buco nero” classico, qual era concepito da Laplace.

Quando, verso la fine degli anni ’60, furono scoperti fenomeni celesti il cui inquadramento teorico richiedeva la previsione di colossali collassi gravitazionali, l’attenzione per i buchi neri aumentò vertiginosamente ed essi passarono da curiosità matematica (la cui esistenza era stata negata da alcuni dei maggiori fisici, come Einstein stesso e Landau) a oggetto d’indagine di gran moda presso la comunità dei fisici, al pari delle particelle elementari che contemporaneamente stavano affollando acceleratori sempre più grandi. I modelli di maggiore successo prevedono oggi che al centro di molte galassie, ad esempio di quella classificata come M87 indagata dal progetto EHT, ci sia un buco nero.

La principale novità dell’esperimento EHT è il livello estremo di zoom raggiunto, necessario per ottenere un’immagine significativa della zona immediatamente circostante l’orizzonte degli eventi. Secondo i modelli correnti, infatti, i buchi neri, compresi quelli “super-massicci” che si suppongono esistere al centro delle galassie, sono molto piccoli rispetto alla loro distanza da noi. La stima della grandezza del buco nero al centro di M87 (nel senso del diametro del suo orizzonte degli eventi) è ad esempio di un centinaio di volte la distanza Terra-Sole, mentre la sua distanza è enormemente più grande (circa 1012 volte). Ciò corrisponde a un angolo visuale inferiore al decimillesimo di secondo di arco, molto al di sotto del minimo angolo che si sia mai tentato di osservare in astronomia prima del progetto EHT.

La principale difficoltà tecnica dell’impresa è legata al fatto che la risoluzione angolare di un telescopio (ossia la minima distanza angolare tra due oggetti discernibili) è inversamente proporzionale al diametro della sua lente (nel caso di un radiotelescopio si tratta in realtà di un’antenna). In linea di principio, un telescopio in grado di apprezzare angoli inferiori al decimillesimo di secondo di arco dovrebbe avere una “lente” dal diametro dell’ordine di migliaia di chilometri. L’idea del progetto EHT, concepita negli anni ’70, è una tecnica chiamata interferometria a base molto ampia” (Very Long Baseline Interferometry, VLBI), che cerca di sfruttare una rete di radiotelescopi sparsi in vari punti della Terra per mimare, parzialmente, il potere risolvente di un telescopio grande quanto la Terra stessa. Ogni coppia di telescopi fornisce, istante per istante, dati sulla radiazione in arrivo dalla direzione osservata, precisamente sulle intensità delle frequenze in essa contenute; a causa della rotazione terrestre, nel tempo la stessa coppia di telescopi può fornire molti dati diversi sulle frequenze del segnale in arrivo. Combinando la VLBI con sofisticate tecniche di ricostruzione e pulitura di immagini, il progetto EHT ha ottenuto l’immagine diventata, per qualche giorno, famosa in tutto il mondo, e che tuttora figura in testa alle pagine di Wikipedia dedicate ai buchi neri in molte lingue (incluse italiano, inglese, francese, tedesco, spagnolo, russo, cinese e giapponese).

Ma veniamo al punto che qui ci interessa di più. L’immagine in questione è stata presentata dai media, e anche dai protagonisti del progetto in occasioni pubbliche, come la prima “foto” di un buco nero. Non si tratta di una scelta terminologica irrilevante per il giudizio sul significato dell’impresa. Siamo soliti pensare a una fotografia come a una riproduzione bidimensionale, ma altrimenti oggettiva della realtà così come appare, ed è proprio questo tipo di associazione automatica che ha portato il progetto EHT sulle prime pagine.

L’esperimento EHT è stato senza dubbio una tappa importante per la storia della radioastronomia, nella quale sono state superate alcune notevoli difficoltà tecnologiche e in cui si sono introdotte novità che hanno un grande margine di ulteriore perfezionamento. Tuttavia, ci sembra che sia fuorviante chiamare “fotografia” l’immagine dell’EHT per almeno sei ragioni, che discuteremo qui di seguito dando uno sguardo più ravvicinato a cosa effettivamente è stato fatto[3].

  1. Non si tratta di “luce”.

È la precisazione fatta più spesso, anche se certamente la più superficiale. Vale comunque la pena di ricordare che la radiazione in entrata usata per generare l’immagine era alla lunghezza d’onda chiamata comunemente “radio”. Le onde elettromagnetiche di quella lunghezza non sono percepite dall’occhio umano. C’erano ovviamente ottimi motivi scientifici per selezionare quella particolare banda di lunghezze d’onda. Si sa infatti che i nuclei galattici attivi del tipo di quello di M87 emettono significativamente in quella banda, e si suppone che l’origine di questa emissione sia appunto l’interazione di materia con il buco nero al centro della galassia; si prevedeva, inoltre, che la regione oscura, detta l’“ombra” del buco nero, fosse visibile chiaramente proprio alla lunghezza d’onda considerata.

Ma in ogni caso è opportuno tenere presente che quella raccolta non è stata luce visibile, e soprattutto che l’immagine che abbiamo visto è una resa in cui la scelta di colori è del tutto arbitraria. Al posto delle suggestive sfumature rosso-arancioni si sarebbe potuta scegliere una scala di grigi o anche variazioni di verde smeraldo, e sia il contenuto informativo dell’immagine sia il suo rapporto con l’evidenza sperimentale sarebbero stati esattamente gli stessi.

  1. I dati raccolti sono stati ripuliti da un’enorme quantità di “rumore”.

Come già accennato, i dati raccolti dalla rete di telescopi riguardano le frequenze del segnale elettromagnetico in entrata (sono “nel dominio della frequenza”, come si dice in gergo). Per ottenerli è stato prima di tutto necessario sincronizzare con grande precisione i telescopi. Il raggiungimento di questo obiettivo è uno dei risultati tecnologici più importanti del progetto EHT, e certamente costituisce una base che potrà essere allargata ancora in futuro aggiungendo altri telescopi alla rete. Per la precisione, le osservazioni sono state compiute nel 2017 da otto telescopi, situati però solo in sei località diverse. Per questo motivo, a ogni istante i dati distinti sulle frequenze erano quindici (perché ci sono quindici coppie possibili tra sei oggetti). La rotazione terrestre fa sì, come già detto, che in tempi diversi ogni coppia può produrre in linea di principio nuovi dati.

Va però precisato che il dato nella lunghezza d’onda radio considerato interessante era circondato da un “rumore” molto consistente. Si trattava in effetti, come i ricercatori stessi si sono espressi, di un lievissimo segnale (tiny tiny signal) rilevato insieme a un’enorme quantità di segnale irrilevante, tanto che il rapporto tra la quantità di informazione processata e quella dell’immagine prodotta è dell’ordine di dieci miliardi.

I dati grezzi sono stati immagazzinati in un supercomputer che teneva conto della sincronizzazione dei vari telescopi, dopo di che la ripulitura del segnale dal rumore è stata condotta con metodi standard, che tuttavia non possono prescindere da un inquadramento teorico di cosa si pensa debba essere segnale rilevante per i propri scopi e cosa si assume (per motivi certamente fondati) essere segnale proveniente da sorgenti di altro tipo non connesse all’oggetto di interesse. Si tratta di un procedimento tutt’altro che banale, in cui si deve tener conto ad esempio del ritardo casuale che il segnale riceve dall’atmosfera e del diverso livello e tipo di assorbimento da parte dell’atmosfera stessa nei diversi siti. Tutte queste difficoltà sono state superate sfruttando le correlazioni interne tra i dati delle varie coppie di telescopi, il che, se costituisce un brillante risultato sperimentale, fa anche capire quanto lontano sia il dato finale utilizzato per produrre l’immagine da una vera e propria apparenza fenomenologica, e quindi ancora una volta perché sia semplicistico parlare di fotografia.

  1. Ciò che vediamo nell’immagine rappresenta fotoni provenienti da materia che circonda il buco nero.

Una caratteristica delle migliori teorie scientifiche è quella di prevedere fenomeni mai osservati prima. È quindi naturale mettere alla prova una teoria cercando di produrre artificialmente i fenomeni previsti, o esplorando la realtà naturale al fine di individuarli. Quasi tutta la tecnologia scientifica è nata in questo modo, per cui si tratta piuttosto della norma che di un’eccezione nella storia della fisica, e anche al di fuori della scienza esatta ci sono casi analoghi, come la previsione, nell’ambito della teoria dell’evoluzione, di specie animali “intermedie” tra due specie già note, che è stata confermata, in molti casi, dalla successiva scoperta di resti fossili congruenti. È stato quindi naturale che si sia cominciato a cercare traccia dei buchi neri per mettere alla prova la relatività generale. In questo caso, tuttavia, le cose sono molto delicate. Dal momento che il buco nero è, per definizione, inosservabile direttamente, l’unica possibilità è quella di dedurre dalla teoria in che modo un oggetto del genere debba interagire con enti osservabili, cercare fenomeni coerenti con queste previsioni e dedurre da ciò l’esistenza di un buco nero. Il problema, in questo approccio, è quanto pesantemente la nostra interpretazione dei dati osservativi dipenda da schemi concettuali. Per questo motivo, per giudicare il significato conoscitivo di nuove evidenze compatibili con le previsioni, occorre sempre tenere conto dei complessi rapporti tra cosa si è osservato e le teorie impiegate per decidere cosa cercare.

L’esperimento dell’EHT non sfugge (né poteva) a questo problema. Anche in questo caso, infatti, si è cercata evidenza osservativa proveniente da regioni vicine al buco nero supposto al centro di M87 che fossero coerenti con quanto si presume di sapere su questi oggetti. In particolare, la cornice luminosa attorno all’area scura che vediamo nell’immagine è attribuibile a fotoni provenienti dal disco di accrescimento, ovvero dalla materia che, secondo i modelli più accreditati, ruota allo stato di plasma attorno al buco nero stesso. Ma, come vedremo immediatamente, non possiamo neppure parlare di “fotografia” del disco di accrescimento.

  1. Quello che vediamo nell’immagine non è semplicemente il disco di accrescimento.

La parola “disco” suggerisce un oggetto appiattito, tendenzialmente bidimensionale, e questa è infatti la previsione teorica per il plasma rotante attorno a buchi neri del tipo di quello al centro di M87. Ma questo non significa affatto che la figura anulare che vediamo nell’immagine corrisponda in modo diretto alla geometria del disco di accrescimento. Non vediamo cioè un anello perché i fotoni di un oggetto tendenzialmente anulare hanno viaggiato in linea retta (come fanno nelle nostre esperienze terrestri) dalla sorgente ai nostri strumenti. L’interpretazione fisica dell’anello è completamente diversa: si tratta dei fotoni che, provenendo da varie parti del disco di accrescimento (per esempio anche da dietro il buco nero rispetto alla nostra linea visuale), sono deviati dalla gravità del buco nero stesso verso di noi, secondo quanto previsto dalla relatività generale.

La forma della zona brillante dell’immagine è quindi anulare per motivi che solo indirettamente possono essere connessi alla forma del disco di accrescimento, mentre sicuramente parlare di “fotografia” avrà dato al lettore generico l’idea di vedere una forma che corrisponde alla disposizione spaziale di materia attorno al buco nero. E inoltre non è affatto detto che il piano in cui si trova il disco di accrescimento sia ortogonale alla nostra visuale.

Come già detto, siamo abituati a pensare alla fotografia come a una rappresentazione oggettiva della realtà, e ciò proprio perché nella nostra esperienza quotidiana quello che vediamo e possiamo catturare in una foto è strettamente connesso con ciò che possiamo toccare o raggiungere in altri modi attraverso i sensi. Le informazioni sugli oggetti che riceviamo dai sensi sono usualmente coerenti, e sono sintetizzate dalla nostra intuizione spaziale nella consapevolezza che c’è qualcosa di quella particolare forma a quella particolare distanza e disposta in quel particolare modo rispetto a noi. I casi in cui i messaggi provenienti dai vari sensi producono intuizioni spaziali incoerenti sono rari nella nostra quotidianità, e perciò sono di solito interpretati come illusioni, come avviene per i miraggi, la rifrazione da parte di uno specchio d’acqua che fa apparire un remo “spezzato”, gli specchi deformanti, l’eco, eccetera. Nel caso di oggetti lontanissimi dalla nostra esperienza, come appunto i buchi neri, non abbiamo alcun motivo per pensare che la nostra intuizione (che si è evoluta sulla superficie terrestre) sia una bussola affidabile, per cui bisogna andare molto cauti nell’attribuire un qualunque significato intuitivo alle immagini che li rappresentano.

  1. Quella che vediamo è un’immagine ricostruita tramite specifici algoritmi.

Questo è forse il punto più delicato. La rete di telescopi ha prodotto un insieme di dati che possono essere sommariamente descritti (dopo l’isolamento dal rumore) come un certo numero di pixel sparsi in una mappa del dominio della frequenza del segnale in arrivo. Se la mappa fosse completa, sarebbe sufficiente applicare ben note tecniche matematiche per ricostruire l’immagine così come dovrebbe apparire a qualcuno in grado di “vedere” le onde radio. Ma la mappa è invece largamente incompleta, perché al posto di un’intera lente delle dimensioni di migliaia di chilometri sono state utilizzate solo alcune minuscole porzioni di essa, ovvero gli otto telescopi sparsi per il globo. Esistono infinite immagini possibili perfettamente coerenti con i dati ottenuti. Si è trattato dunque di fare delle scelte precise su quali criteri adottare per la ricostruzione dell’immagine. I ricercatori dell’EHT lo precisano chiaramente:

Because an interferometer incompletely samples the visibility domain, the inverse problem of determining an image from a measured set of visibilities is ill-posed. Consequently, reconstructed images are not unique—they always require information, assumptions, or constraints beyond the interferometer measurements.[4]

In questo senso, i ricercatori dell’EHT hanno proceduto con estrema cautela. Sia negli articoli sia nelle conferenze hanno mostrato di essere ben consapevoli del pericolo di utilizzare metodi circolari. Il caso più grossolano di questo tipo consisterebbe nel ricostruire l’immagine in base alla simulazione numerica di modelli teorici già esistenti dei buchi neri: è evidente che in questo modo non si potrebbe ottenere alcuna prova indipendente dell’esistenza di questi oggetti. Ma i modi in cui idee preconcette di vario tipo possono essere inconsapevolmente inserite nella ricostruzione sono molti e a volte estremamente sottili. Per questo motivo, i ricercatori dell’EHT hanno usato precauzioni molto stringenti. Innanzitutto hanno scelto di ricostruire l’immagine usando due diversi algoritmi, basati su idee diverse, uno dei quali (chiamato CLEAN) già ampiamente utilizzato in radioastronomia, l’altro (chiamato RML, regularized maximum likelihood) ideato nell’ambito del progetto. Inoltre hanno diviso i ricercatori che si sono occupati del lavoro di ricostruzione in quattro gruppi (due per ogni metodo), che hanno operato senza conoscere i risultati degli altri.

Ma vediamo su quali idee sono basati i metodi di ricostruzione. CLEAN parte dall’applicazione dell’usuale tecnica matematica che consente di trasformare le frequenze cui accennavamo prima, applicata ai pochi punti noti della mappa, mentre nei restanti punti si assume un segnale nullo. L’immagine creata in questo modo tipicamente ha ben poco a che fare con quella di partenza. A questo punto si assume che l’immagine originale consista in un insieme di sorgenti puntiformi e si applica un metodo iterativo per individuare queste sorgenti “pulendo” l’immagine di partenza (attraverso una procedura che non possiamo sintetizzare qui). È interessante osservare che l’assunzione di essere in presenza di relativamente poche sorgenti puntiformi in un campo tendenzialmente vuoto è molto naturale nell’ambito delle ricerche in radioastronomia che hanno visto nascere CLEAN negli anni ’70 (il cielo è in gran parte nero!), mentre non è necessariamente la scelta ottimale quando si deve indagare un segnale di tipo potenzialmente ignoto da una regione limitata dello spazio. Inoltre, come precisato dagli stessi ricercatori dell’EHT, CLEAN dipende fortemente dalle scelte dell’utilizzatore, che interviene regolarmente durante il processo iterativo (i membri dell’EHT hanno cercato di evitare questo tipo di dipendenza dall’arbitrio umano modificando l’algoritmo).

L’altro metodo impiegato, l’RML, assegna invece una “probabilità” a ogni immagine compatibile con i dati, e seleziona poi, con un procedimento iterativo, l’immagine più probabile. Tra i criteri scelti per decidere cosa è probabile e cosa no ci sono ad esempio i due seguenti[5]:

Total Variation: TV favors piecewise-smooth images with flat regions separated by sharp edges

[…]

Total Squared Variation: TSV favors images with smooth edges.

La ricostruzione ha quindi privilegiato immagini che mediassero in modo opportuno tra compattezza (margini definiti tra zone a intensità diversa) e gradualità (ovvero passaggi ragionevolmente dolci nell’ambito della stessa regione). Sono state cioè giudicate poco probabili e quindi scartate immagini con bruschi e disordinati cambiamenti di intensità in zone ristrette, mentre sono state privilegiate quelle con vaste aree in cui le intensità cambiano dolcemente, separate da contorni netti e semplici. Come si vede, anche il metodo RML presenta quindi il problema di una sostanziale dipendenza da scelte a priori, come sintetizzano in modo molto chiaro gli autori della ricostruzione:

With this abundance of user input, it can be difficult to assess what image properties are reliable from a given imaging method.

The dangers of false confidence and collective confirmation bias are magnified for the EHT because the array has fewer sites than typical VLBI arrays, there are no previous VLBI images of any source at 1.3 mm wavelength, and there are no comparable black hole images on event-horizon scales at any wavelength.[6]

A causa di tutte queste difficoltà, i ricercatori dell’EHT hanno quindi ritenuto necessario mettere alla prova i loro metodi provando a ricostruire immagini note partendo da una quantità e qualità di dati simile a quella che essi ritenevano di avere per il buco nero. Hanno scelto a questo fine sia immagini astronomiche, sia immagini di tipo completamente diverso (ad esempio il disegno di un pupazzo di neve). In tutti i casi le immagini ricostruite sono state considerate ragionevolmente somiglianti all’originale. Pur con tutte queste cautele, e anzi proprio a causa delle complicate procedure richieste per produrre l’immagine, non sembra appropriato riferirsi ad essa con la parola “fotografia”[7].

  1. L’immagine finale presentata al mondo è stata prodotta “mediando” tra diverse immagini ottenute.

Le immagini prodotte dai quattro sottogruppi indipendenti del progetto sono queste[8]: 

Le quattro versioni sono state considerate ragionevolmente concordanti dagli scienziati dell’EHT. Ma un osservatore attento noterà che nessuna di esse coincide con quella che ha fatto il giro del mondo. Questo perché per ottenere l’immagine finale, la “fotografia”, dopo la ripulitura dal rumore con la rimozione del 99,99999999% dell’informazione in entrata, dopo la conversione dal dominio della frequenza, dopo la ricostruzione a partire da dati incompleti e dopo la resa in falsi colori, è stata compiuta un’ultima operazione, ovvero si è “sfocato” così tanto da ottenere un prodotto finale compatibile con le immagini ricostruite in modi diversi, giungendo così a un’immagine unica. È solo quest’ultima l’immagine divenuta famosa.

C’erano ovviamente buoni motivi scientifici per depurare l’immagine da tutti i dettagli che potevano essere accidentali lasciando solo ciò che era ragionevolmente ben stabilito. Come ha precisato Katie Bouman[9], responsabile degli algoritmi di ricostruzione di immagini usati dall’EHT, le cose su cui c’è ragionevole certezza sono: 1. Che c’è una regione anulare luminosa 2. Che questa regione ha un diametro di circa 40 microsecondi di arco 3. Che la zona centrale dell’anello è completamente oscura 4. Che l’anello presenta una luminosità asimmetrica, con una metà più luminosa dell’altra.

Queste conclusioni costituiscono il distillato pregiato del complicatissimo lavoro di raccolta, pulitura ed elaborazione dei dati che abbiamo cercato di descrivere, e certamente forniscono un’importante supporto (anche se necessariamente indiretto) alla teoria che prevede l’esistenza di buchi neri super-massicci al centro delle galassie. Queste conclusioni sono state derivate dall’immagine prodotta, e costituiscono le caratteristiche considerate significative di quest’ultima (mentre altre, come gli aloni esterni all’anello, sono ritenute inaffidabili). Ci si può chiedere allora in che misura produrre l’immagine fosse un passo essenziale per raggiungerle. I procedimenti utilizzati, infatti, costituiscono di per sé una sistematica analisi dei dati che si potrebbe pensare, fin dall’inizio, come finalizzata a far emergere una “struttura” ad essi sottostante, senza passare necessariamente per la costruzione di un’immagine. Detto in altro modo: tanto l’immagine, quanto le quattro affermazioni prima riportate sono modi possibili di esplicitare quella struttura, e sembra chiaro che le seconde sono scientificamente più significative della prima. Eppure fin dall’inizio al centro del progetto è stata messa la produzione dell’immagine. Non a caso il report tecnico diffuso dall’EHT si apre con il lapidario capoverso “We report the first image of a black hole”, mentre, nella prima conferenza stampa in cui è stato annunciato il risultato, Shep Doeleman (direttore del progetto) ha dichiarato “abbiamo visto ciò che credevamo fosse invisibile, abbiamo visto e fotografato un buco nero” (we have seen what we thought was unseeable, we have seen and taken a picture of a black hole). Ecco per la prima volta un buco nero così com’è, senza simulazioni al computer, rappresentazioni artistiche, costruzioni teoriche – è questo il messaggio che gli scienziati dell’EHT hanno voluto dare al pubblico di tutto il mondo e ai loro colleghi.

Sembra insomma (né sarebbe la prima volta) che in questo caso le novità scientificamente e tecnologicamente significative siano state più un sottoprodotto che il centro dell’attenzione e degli sforzi degli scienziati. Ma perché la produzione dell’immagine (contrabbandata dai media come “fotografia”) ha assunto un ruolo centrale in una ricerca d’avanguardia, che ha impegnato per anni centinaia di ricercatori?

Si sarebbe tentati di rispondere che solo l’immagine ha permesso di occupare le prime pagine di giornali come il Wall Street Journal. In questa risposta vi è certamente molto di vero. I momenti della ricerca scientifica e della comunicazione al pubblico, una volta nettamente separati, nei tempi, nelle modalità e nelle professionalità coinvolte, si sono ormai totalmente fusi[10]: la comunicazione finisce così con l’individuare lo stesso contenuto della ricerca, volta alla produzione di un risultato (in questo caso l’immagine) immediatamente utilizzabile dai media.

Non vi è dubbio che la necessità di reperire fondi crescenti richieda alla ricerca scientifica sostegni politici ottenibili solo grazie al coinvolgimento dei media e ciò non può non condizionare temi e metodi della ricerca stessa.

Si sbaglierebbe però, a nostro parere, nell’immaginare un uso banalmente strumentale dell’immagine da parte dei ricercatori. Non abbiamo dubbi, al contrario, che l’entusiasmo di chi ritiene di essere riuscito a “vedere l’invisibile” sia sincero. La mutazione della ricerca non solo ha riguardato i temi e i metodi, ma pone anche nuovi problemi di tipo epistemologico. Studiosi che affrontano temi così lontani dall’esperienza umana come quelli proposti dall’astrofisica e dalla cosmologia devono essere infatti disposti a ripensare dal profondo la propria epistemologia, il che non comporta solo una rinnovata consapevolezza del rapporto complesso tra evidenza sperimentale e previsioni teoriche, ma anche una ridefinizione del confine stesso tra “teoria” e “realtà”, tra “immaginato” e “verificato”. In questa direzione la scelta che è stata compiuta per dare “realtà” ai buchi neri è stata quella di produrne un’immagine visibile: una scelta che, a ben guardare, sembra tutto sommato conservativa rispetto alla portata dei risultati e dei problemi in gioco.

NOTE:

[1] Termine coniato nel 1967 dal fisico americano John Arcibald Wheeler, che riprendeva quello di “dark star”, coniato dall’astronomo inglese John Michell nel 1784 per l’ente immaginato nel quadro della meccanica celeste settecentesca.

[2] Si noti che in ambito relativistico l’orizzonte degli eventi dev’essere concepito come una superficie dello spaziotempo e non puramente spaziale, per cui, nel modello, un oggetto che la attraversa procede verso la singolarità altrettanto inevitabilmente di quanto noi procediamo verso il nostro futuro.

[3] Le sei pubblicazioni scientifiche relative al progetto EHT sono disponibili qui: https://iopscience.iop.org/journal/2041-8205/page/Focus_on_EHT.

[4] First M87 Event Horizon Telescope Results. IV. Imaging the Central Supermassive Black Holedisponibile all’indirizzo: https://iopscience.iop.org/article/10.3847/2041-8213/ab0e85

[5] Ibid.

[6] Ibid.

[7] A un diverso livello, si possono fare alcune considerazioni sul metodo in sé. A meno che non ci sia sfuggito qualcosa, nessuna delle immagini usate per mettere alla prova il metodo di ricostruzione era una pura giustapposizione casuale di pixel, tutte erano invece immagini riconoscibili da un occhio umano come rappresentanti qualcosa di sufficientemente definito. Le immagini di oggetti di qualunque tipo, quelle riconoscibili appunto come immagini di “qualcosa”, hanno di solito proprio le caratteristiche imposte attraverso l’algoritmo RML, ossia compattezza e gradualità. Poiché si stavano cercando prove indipendenti del fatto che al centro di M87 ci fosse “qualcosa”, una riprova significativa dell’efficacia del metodo poteva forse essere quella di partire appunto da un’immagine del tutto casuale per vedere se i criteri impiegati facessero venire fuori in uscita un’immagine molto meno casuale. Saremmo curiosi di vedere una verifica di questo tipo.

[8] Immagini tratte ancora dall’articolo First M87 Event Horizon Telescope Results. IV. Imaging the Central Supermassive Black Hole, prima citato.

[9] Conferenza presso il Caltech dispponibile qui: https://www.youtube.com/watch?v=UGL_OL3OrCE.

[10] La progressiva compenetrazione di alcuni settori della ricerca scientifica e della loro rappresentazione mediatica costituisce un tema importante, su cui torneremo su questo sito. Un esempio recente e particolarmente eloquente di questo fenomeno è la realizzazione del film di fantascienza Interstellar, del 2014, alla cui produzione esecutiva ha lavorato l’astrofisico e premio Nobel Kip Thorne, nel quale si mette in scena una “rappresentazione scientificamente corretta di quello che gli esseri umani potrebbero affrontare in un’esplorazione dello spaziotempo”. Al film è seguito anche un libro dello stesso Thorne, recentemente tradotto in italiano (La scienza di Interstellar. Viaggiare nello spaziotempo, Bompiani, 2018), in cui l’autore illustra alcuni ingredienti della scienza del suo film: “dai dischi di accrescimento alle singolarità, dalla gravità quantistica alle anomalie gravitazionali, passando per la quinta dimensione e il tesseratto di Nolan […] stimolando il nostro senso della meraviglia e dell’avventura” (citazione tratta dal risvolto di copertina).

Scarica il pdf

One thought on “Fotografare un buco nero”

  1. Grazie per questo prezioso contributo. Mi riempie di orgoglio che a questo bel risultato abbiano contribuito anche nostri connazionali di Napoli e di Bologna, come Mariafelicia De Laurentis e Elisabetta Liuzzo e altri che lavorano all’estero come Luciano Rezzolla; per la lista degli autori si veda https://iopscience.iop.org/article/10.3847/2041-8213/ab1141/meta).

    Un commento sulla discussione. Un caso simile, che ebbe risalto mediatico ancora maggiore, si verifico’ alla fine dell’800. Come raccontato in https://www.e-flux.com/journal/66/60736/x-screens-rntgen-architecture/, nel gennaio del 1896 il giornale London Standard circolo’ in tutto il mondo queste parole

    “Professor Routgen of Würzburg has discovered a light which, for the purpose of photography, will penetrate wood, flesh and most other organic substances.”

    Va ricordato che la fotografia (in senso stretto) era stata inventata appena 80 anni prima, era per cosi’ dire una invenzione ancora fresca, e quindi i termini erano piu’ facilmente estendibili.

    Ma certamente non e’ bene indulgere in terminologie troppo approssimative. In effetti, chiunque puo’ controllare con Google che il termine “X-ray image” sia 6-7 volte piu’ comune di “X-ray picture”; anche in italiano l’espressione “immagine ai raggi X” e’ 2 volte piu’ comune di “foto ai raggi X”.

    Magari ci vorrà solo un po’ di tempo e parleremo sempre piu’ frequentemente di “immagine ai raggi-X” e “immagine radio”; forse non sarebbe cosi’ grave se ci abituassimo a farlo proprio nella nazione dove nacque Marconi, e arrivo a sperare- inguaribile ottimista come sono – che prima o poi useremo il termine “luce” come fa chi e’ familiare con le idee Maxwell, senza che questo causi confusione.

    Grazie ancora.

    PS Qua sopra insisto su aspetti relativi alla nostra nazione non solo per rispetto verso chi ci ha lavorato (ne ho molto) o non certo perche’ sono convinto della superiorità del nostro popolo (non mi piacciono queste idee, e poi penso che la scienza sia soprattutto pratica di individui). Spero pero’ che il riconoscere l’altissimo livello dei nostri avamposti scientifici ci possa ispirare a far del nostro meglio.

    Mi piace

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...