Anzitutto va considerato che la “cantonata” di dire che è la Terra al centro dell’Universo, non è cosa nuova ..
https://it.wikipedia.org/wiki/Teoria_copernicana
Ma -evidentemente- il vecchio vizio di considerarsi sulla _sola_ Bolla che esiste .. è usanza psicologica dura a lasciare il passo al realismo di considerare le cose nel loro contesto più ampio!
Da cosa dipende la difficoltà di confutazione de “LA TEORIA del Big Bang”?
Noi, pensiamo -anzitutto- dal valutare la velocità su scala cosmologica.
Trattare il tema di v, de “la velocità”, è uno dei pilastri di chi studia scienza.
Alcuni, nel fare ricerca scientifica, infatti, confondono lo “studiare scienza” nel senso di cercare la verità, nella figura quindi del “ricercatore”, con colui che invece si accoda alla maggioranza dei pareri, e quindi li ripete a memoria, magari selezionando quelli che ritiene “autorevoli”.
Anche in questi giorni, si può assistere, sulle pagine di facebook dedicate alla meccanica quantistica, principalmente a una sofferenza.
La sofferenza di chi non conosce i basamenti delle “dinamiche dell’eureka!”, poiché questo è il tema più generale, e quindi sente il peso di una fisica che non spiega oltre il 90% della materia ed energia (che la scienza ufficiale ammette di esistere nel cosmo), e -pure- NON SA COLLOCARE dove e come sia, né si pone il problema se questa tipologia di errore non faccia perdere di credibilità all'<<impianto teoretico attuale>> = teoria del Big Bang.
Gli attacchi personali alla mia persona io li ritengo non un danno, ma una occasione di riflessione, perché se qualcuno ha da esporre una tesi ci sono sempre delle valide ragioni per cui è mosso a fare questo. E quindi quelle ragioni vanno indagate con spirito sereno, partendo dal presupposto che vi possa essere un fondamento, e che tale “contributo”porti -ALMENO- un po’ di chiarezza sul come si fa ricerca scientifica.
Rinvio al link specifico, di ciò che è stato detto, su facebook, indicando ..
https://6viola.wordpress.com/2016/06/30/come-mettere-alla-prova-una-teoria-fisica/
nel caso qualcuno sia interessato a entrare nel dettaglio di come si è sviluppata la “critica alla teoria Universi Adiacenti”, e passo subito ad alcune considerazioni dello studio della velocità nella storia del pensiero umano, arrivando velocemente ai nostri giorni e all’uso odierno della velocità, sia nella formula di Hubble, sia più in generale nello studio del cosmo.
Nello studio della velocità, chi è in grado di entrare nel dettaglio tramite -in primis- una grande capacità di concentrazione, si accorge che trova le ragioni delle separazioni tra i modelli quantici e lineari.
Infatti con il paradosso di Zenone, nella storia del genere umano, inizia la domanda fondamentale:
DOMANDA:
Perché se tra due punti ve ne è uno intermedio .. e quindi vi sono infiniti punti tra due dati .. eppure “Achille raggiunge la tartaruga?”
La scuola sperimentalista ante litteram, diciamo per semplificare, degli “ingegneri”, spiegava ai “fisici teorici” -dell’epoca- che il paradosso era risolvibile in modo semplice:
a) prendeva una tartaruga
b) prendeva un amico a cui diceva di raggiungere la tartaruga
c) mostrava a Zenone che NON era vera la sua tesi, poiché era smentita dai fatti!
A chi è però appassionato di matematica, ciò crea un dolore! .. non è forse vero che la matematica è il linguaggio attraverso cui i modelli descrivono il reale? .. non è forse vero che grazie a questa capacità di estrapolazione la specie umana ha preso il controllo del nostro pianeta e oggi lo dòmina?
Perchè la matematica che dica che tra due punti ve ne è sempre uno intermedio -> sbaglia?
La risposta è semplice: quel modello è semplificato e non si risolve con la convergenza delle serie!, .. poiché anche le serie sono una astrazione (come anche oggi! .. sarebbe la spiegazione ufficiale! .. come si legge al link seguente! ..)
https://it.wikipedia.org/wiki/Paradosso_di_Achille_e_la_tartaruga
cito dal link precedente wiki:
<<La spiegazione matematica sta nel fatto che gli infiniti intervalli percorsi ogni volta da Achille per raggiungere la tartaruga diventano sempre più piccoli ed il limite della loro somma converge, per le proprietà delle serie geometriche. >>
Quindi, spero starete apprezzando, quanto sia alta la *ignoranza ufficiale* su questi temi di base non sapendo distinguere i modelli astratti del calcolo infinitesimale della matematica, con la pretesa di spiegare modelli astratti (il calcolo infinitesimale) con altre astrazioni (le serie geometriche), dello stesso tipo (astratto) che creando la APORIA, anche detta “contraddizione logica”, di un loop, che non usa la cross-correlazione di metodi _diversi_ per la verifica. Un corto circuito della logica, quindi. Ecco perché, invece, è lo sperimentalismo che deve correggere la teoria dei modelli & la teoria dei modelli che deve essere predittiva allo sperimentalismo per evitare dei danni alle cose e alle persone. Perché (i)”sperimentalismo” & (ii) “astrazione” sono due modalità complementari e dunque risolutive: una(ii) alla interpretazione predittiva e l’altra(i) alla verifica sperimentale.
La soluzione vera è banale: il reale non si sposta per quantità infinitesimali, neanche se volesse.
Infatti ogni variazione di velocità avviene tramite una applicazione di una forza,
e la forza -> a chi avesse provato a costruire -ad esempio- un braccio robotico, (come era nel mio piano di studi nello studio dei modelli degli attuatori nella robotica), non ha un grado di precisione infinito. E ciò è conseguenza che il “quantum minimo” di energia per posizionare un braccio robotico NON è piccolo a piacere! .. ma il quantum minimo esiste e non è con un epsilon aggiuntivo -piccolo a piacere- per modulare il posizionamento.
Ciò fa sì che, normalmente, per percorrere spazi più ampi si usa un diverso tipo di attuatore che per la microregolazione, ma poi si arriva ad un fattore di scala oltre il quale la meccanica implementata non è in grado di andare, con un intervallo ancora più piccolo.
Quel “quantum min”, si può capire, non è un quantum minimo definitivo.
Ma è legato alla tecnologia, nel caso della scienza, oppure, nel come è fatto il corpo umano, è legato alla biologia, e quindi esiste.
Ciò porta che un modello di “ordine superiore” -al calcolo infinitesimale- se il fattore di scala implica evoluzione quantiche, è il modello quantico .. anzi sarebbe meglio dire “circa quantico”, per alludere che è un fatto incidentale quel “quantum”: legato alla impostazione del livello di scala.
Ecco perché si è separata la fisica ad esempio di Maxwell & la MQ, la Meccanica Quantistica, che indaga oltre il quantum dell’atomo, che se le parole hanno una etimologia, significava -per chi inventò quella parola- “indivisibile”=atomo!
Perché quella “corteccia”, con cui gli atomi costruiscono la materia, nasconde una meccanica che cambia di fattore di scala, e ciò non può essere trascurato in chi voglia usare la matematica come approssimazione di descrivere dei modelli fisici.
E quindi siamo arrivati velocemente ai nostri giorni ..
Con il dramma della scienza apparentemente divisa in 2:
1) Chi si appoggia sulla teoria infinitesimale di Einstein, che funziona su larga scala, e non certo al livello dell’atomo e inferiore. Con il limite superiore della capacità di analisi fino a valori inferiori a quelli della luce.
2) Chi si appoggia sulla MQ, che funziona su piccola scala, ma non riesce a descrivere come mai gli manca oltre il 90% della materia ed energia della cosmologia, e che chiama brevemente materia ed energia oscura.
Una frattura -anzitutto- della LOGICA.
Perché chi avesse seguito il ragionamento precedente avrebbe già capito la soluzione: << il modello è _sempre_ una astrazione rispetto al reale, e quindi necessita adattare il modello affinché sia approssimativamente descrittivo del reale>>.
Quale adattamento necessita ad Einstein?
A non pretendere di descrivere in modo localista infinitesimale la MQ: infatti Einstein intuì che gli serviva “la unificazione delle forze fondamentali” e gli serviva di capire come introdurre “il principio di Mach” nella “Teoria della Relatività Generale”.
Purtroppo non ci riuscì, e quindi poiché siamo dominati dalla cultura dei pareri autorevoli, anche se oggi un bambino dicesse che il re è nudo, come me, difficilmente il senso comune si disturberebbe a verificare se il nuovo non sia sinonimo di vero, anziché di falso.
Ho spiegato infatti nei miei articoli, che trovate su questo blog, non solo “la unificazione delle forze fondamentali“, ma anche molte domande della fisica tuttora considerate irrisolte, ma -a chi vuole- basterà cercare nel motore di ricerca del blog, mentre ora vorrei terminare la questione di Hubble, e del calvario della velocità fino alle ultime novità di questi giorni su facebook ..
—
Devo però aggiungere simmetricamente cosa manchi alla MQ:
—
mentre Einstein compie un errore che si potrebbe chiamare “rumore di linearizzazione” del modello infinitesimale, poiché egli parte, nel suo articolo in cui introduce la relatività generale, dal teorema di Pitagora generalizzato:
ds^2 = g11*dx1^2+g22*dx2^2+g33*dx3^2+g44*dx4^2
Ossia in forma parametrica:
ds^2 = Σh Σk (ghk)*d(xh)*d(xk)
coordinate spazio originario:
(x1, x2, x3, x4)
e poi espone la formula del cambio di coordinate nel calcolo tensoriale:
(x’1, x’2, x’3, x’4)
ds^2 =Σi Σj (g’ij)*d(x’i)*d(x’j)
più alcuni vincoli di tipo “condizioni al contorno di Cauchy”, introdotti -poi- da Schwarzschild, nello specificare che in U1 vale
t = tau*1/rad[1-v^2/c^2]
oppure equivalentemente
t = tau*1/rad[1-rg/r]
Trovando anche -grazie al matematico italiano Ricci Curbastro- la relazione che lega la rappresentazione (gij)’ con lo spazio di partenza e cioé
ciascun
(gij)’= Σh Σk {[∂/∂x’i][xh]}*{[∂/∂x’j][xk]}*ghk
—
simmetricamente, la MQ, introduce un rumore detto in letteratura “rumore di quantizzazione”
—
Infatti nella teoria della rappresentazione dei segnali “discreti”, quindi “quantizzati”, è ben noto che avere un grado di risoluzione del “quantum min” crea dei problemi per la rappresentazione dei segnali con valore inferiore al quantum min.
Ecco perché -poi- la MQ si deve appoggiare alla teoria statistica e/o alla teoria della probabilità: per problemi di risoluzione sul valore campionato, e che non sono dipendenti da un reale congenitamente aleatorio o indeterministico, come vorrebbe Heisenberg e la scuola di Copenaghen.
Più esattamente quindi -la MQ- è appropriato che sia quantica, finché non riesca a disporre di un “quantum” inferiore a quello attuale. E quindi si dovrebbe dire -> *il reale* = “circa quantico”, per spiegare bene che Achille raggiunge la tartaruga perché il reale va per incrementi NON infinitesimali, ma poi ci sono i problemi del cambio del fattore di scala, tipici, in particolare, della frontiera degli enti ed eventi. Anche su ciò ho scritto una mia “teoria *semiquantica* della materia/energia” a cui rinvio per maggiori info.
—
Detto tutto ciò, tornado la tema poi oggi di Hubble, si capisce che delle velocità, le prime misure, in senso storico, sono state di associare uno spazio con il relativo tempo impiegato:
Quindi
v(t) = [x(t2)-x(t1)]/[t2-t1]
Rispetto ad un intervallo, dunque, di eventi campione, il tempo, che poteva anche essere un secchio che si svuota di acqua, o la rotazione del sole, o altro, si assodava la prima posizione x(t1), quindi la seconda posizione, x(t2), e si otteneva un numero nel dividere spazio e tempo.
Oggi, per una autovettura, si dice (ad esempio) che un veicolo va a 50 km/h, e che quindi in 1 ora(h) percorre 50 km, se va a velocità costante.
Con il migliorare, però, della teoria della misura, e dei modelli, ci si è chiesti se -anziché disporre di velocità in ipotesi di moto costante- si potesse disporre di valori più specifici, anche durante il moto!
E ciò è possibile se si riesce a calcolare un intervallo di spazio e di tempo per incrementi sempre più piccoli, ed -in linea astratta- talmente piccoli da essere circa istantanei.
Da cui, in matematica, la velocità istantanea è detta la derivata dello spazio nel tempo.
v(t) = d/dt [x(t)]
Avendo indicato l’operatore di derivazione nel tempo d/dt [ ]
Lo spazio, quindi, avrà una sua equazione x(t) (stiamo misurando per semplicità solo rispetto ad un asse x), che segna i punti di x, associati al tempo in cui sono accaduti in un piano cartesiano ad esempio (x,t), da cui la ordinata y=x(t), con un punto che avrà le coordinate P(xi, ti).
—
Prima che si presentasse il problema di portare tutto ciò nella cosmologia, la unica aggiunta da fare, dal punto di vista concettuale, su quanto già detto era solo notare che la velocità totale di un punto nello spazio poteva essere suddivisa in due contributi:
- la velocità di un sistema di riferimento mobile, Rm, rispetto ad un sistema di riferimento fermo, Rf, sia v1(t).
- la velocità del punto _nel_ sistema mobile, v2(t).
Da cui la vtotale=vtot sarà:
vtot (t) = v1(t) + v2(t)
Per “visualizzare meglio” .. si pensi alla velocità di un treno come descrivibile come la velocità di un ente (il treno) = v1(t) .. e alla velocità del passeggero sul treno, v2(t).
Se il treno viaggia a 50 km/h, ed il passeggero va verso la destinazione con 1 km/h, con una velocità questa ultima rispetto al suo moto sul treno, allora
vtot(t) = 50 + 1 = 51 km/h
—
E, dunque, fu questo l’approccio di chi cominciò a studiare il cosmo!
Perché (anziché studiare la velocità complessiva) non studiare la velocità totale degli enti, pianeti, stelle, galassie, etc, scomponendo la velocità in due componenti?
Ciò avrebbe permesso di separare i movimenti locali, da quelli subiti da tutti gli enti che subivano il flusso della espansione del cosmo!
Ed infatti si pensò:
- La prima componente sia il moto del macro sistema, in genere lo spazio, come se fossimo sulla superficie di un palloncino gonfiato dal fiato di un bambino.
- La seconda componente sia il moto locale, corrispondente -in genere- al moto delle galassie, o ammassi di galassie, oppure nella metafora .. di due piccole formiche (corrispondenti alle galassie) che camminano sulla superficie del “palloncino” (il cosmo), anche in presenza della espansione contemporanea del palloncino!
Quindi ancora ..
vtot(t) = v1(t) + v2(t)
E finalmente, arriviamo ad Hubble!
Sulla enciclopedia wikipedia, al link seguente, troviamo la seguente descrizione per descrivere il moto, con la velocità totale:
https://en.wikipedia.org/wiki/Comoving_distance
—
—
Traduco il testo:
<<Questa apparente espansione di velocità superluminale (superluminale=che supera la velocità della luce: c) non è in conflitto con la teoria della relatività speciale (ristretta) o generale, ed è una conseguenza delle particolari definizioni in cosmologia. Anche la luce stessa non ha una velocità c in questo senso; la velocità totale di un qualunque oggetto può essere espressa come nella somma
vtot(t) = vrec(t) + vpec(t)
dove
vrec(t) = “recession velocity” (velocità di recessione)
vpec(t) = “peculiar velocity” (velocità peculiare)
vrec(t): è causata dell’espansione dell’universo (la velocità è data dalla legge di Hubble)
vpec(t): è la “velocità peculiare“ misurata dagli osservatori locali
dove è la distanza X(t) alterata da un fattore di amplificazione (in generale di deformazione), a(t), essendo Xtot(t) = a(t)*X(t)
Da cui
vtot(t) = d/dt[Xtot(t) = a(t)*X(t)] = d/dt[a(t)]*X(t) + a(t)*d/dt[X(t)]
quindi:
d/dt[a(t)]*X(t) = vrec(t), in cui varia “lo spazio cosmologico”
a(t)*d/dt[X(t)] = vpec(t); in cui varia “lo spazio locale”>>.
more info:
https://en.wikipedia.org/wiki/Distance_measures_(cosmology)
—
Il primo commento da fare è che il nuovo metodo di misura NON è la separazione dei contributi tra due sistemi, uno mobile (rispetto a quello fisso), ed uno _nel_ sistema mobile! (come nel caso del treno che abbiamo fatto sopra). Bensì: la velocità di espansione del cosmo d/dt[a(t)] è “pesata” con X(t), oppure la velocità “locale” d/dt[X(t)] è pesata con a(t). In definitiva rispetto ad un centro di massa di una galassia (ad esempio) la X(t) non viene presa in considerazione, se non come un fattore costante al variare del tempo rispetto ai moti “locali”. Da cui la comoving distance è sostanzialmente la velocità del cosmo, prodotta dalla espansione dello spazio!
Ma la domanda che “nasce spontanea” è la seguente:
Quale è la velocità calcolata da Hubble? .. con la formula seguente?
H0*D=v?
Quale è il valore di H0?
a che si riferisce D?
a che si riferisce v?
Normalmente con H0 si intende un valore costante, ma se fosse H=/= da costante?
Quando H è diverso da costante? .. e perché?
—
Per rispondere a tutte queste domande metto un link: https://it.wikipedia.org/wiki/Legge_di_Hubble , anzitutto per ricostruire la travagliata storia della formula attuale, che in un certo senso ripercorre una cosa simile al travagliato iter della teoria della relatività generale, in cui Einstein immaginava un universo che non si espandeva, e quindi “statico” e fu costretto(*1) a introdurre un nuovo termine nella teoria della relatività generale e lo considerò “il più grande errore della mia vita”.
(*1)
(per impedire che l’universo avesse un collasso a causa della gravità)
More info nell’inserto seguente:
++
cit on-1
++
scrive Eleonora Presani:
(I am a physicist with experience in both research and publishing business. I hold a PhD in astroparticle physics from the University of Amsterdam and a MSc in particle physics from Trieste University in Italy.)
Uno dei risultati più importanti, o comunque più noti, nella storia della fisica è la Teoria della Relatività Generale di Albert Einstein. Nel 1915 Einstein concluse la sua teoria con la famosa Equazione di Campo, con la quale descrive l’evoluzione dell’Universo.
Nel farlo, però, lo stesso Einstein si è trovato di fronte ad un problema apparentemente irrisovibile se non con una specie di “trucco” matematico. Considerando unicamente la gravità come forza conduttrice dell’Universo, il risultato non era molto attraente: con il tempo la forza gravitazionale avrebbe avuto il sopravvento sulla spinta di espansione data dal BigBang, e l’Universo sarebbe collassato in un Big Crunch.
Ai fisici in genere non piacciono situazioni instabili e precarie, quindi Einstein ha deciso di inserire un fattore nella sua equazione di campo, una costante Λ, chiamata Costante Cosmologica. La Costante Cosmologica rappresenta una sorta di forza, che agisce in modo repulsivo quando la costante è positiva e attrattivo quando è negativa. Einstein l’ha introdotta per riportare l’equilibrio nell’Universo, cosicché diventasse stabile, senza incorrere in possibili Big Crunch. Pochi anni dopo, però, Edwin Hubble ha scoperto che l’Universo non è per nulla stabile, anzi, è in continua espansione.
Questa scoperta ha riportato in voga l’equazione di campo di Einstein nella sua forma originale, senza Costante Cosmologica. Negli anni ’20, intanto, un altro fisico ha cominciato a studiare le equazioni di Einstein. Alexander Friedman si accorse che la descrizione di Einstein non teneva veramente. Infatti l’agognata stabilità non era raggiunta nemmeno con l’introduzione della Costante Cosmologica, che permetteva di ottenere solo una stabilità locale, facilmente distruttibile con una piccola “spinta”.
Friedman ha riscritto l’Equazione di Campo senza tener conto della costante cosmologica, accettando un Universo instabile. Il suo lavoro è stato pubblicato, ma abbandonato nel dimenticatorio subito dopo, e lì è rimasto anche dopo la morte di Friedman nel 1925. Ma con la scoperta di Hubble le carte in tavola cambiarono ed il nuovo Universo è perfettamente descritto dall’equazione di Friedman, derivata da quella di Einstein. A questo punto Einstein si è dovuto arrendere ad un Universo in espansione, e ha descritto l’introduzione della costante cosmologica come il più grande errore della sua vita.
Le osservazioni di Hubble hanno avuto conseguenze incredibili per la nostra concezione dell’Universo. Esse, assieme all’osservazione del Fondo Cosmico a Microonde (CMB) nel 1964 (e di cui ho parlato qui, qui, qui, e qui) hanno portato alla ribalta il Principio Cosmologico, secondo cui la Terra non si trova in un punto particolare dell’Universo, ma anzi, le osservazioni cosmologiche sono perfettamente le stesse se fatte da qualsiasi punto dell’Universo, che è quindi isotropico e omogeneo.
A questo punto i giochi hanno cominciato a farsi pesanti. La descrizione della gravità di Einstein può essere rappresentata da un tensore (una sorta di matrice) che descrive la metrica dello spazio tempo. Questa metrica può venir modificata (inserendo una curvatura per esempio) e tramite le equazioni di Friedman si può estendere questo sistema ad una forma dinamica (ovvero descriverne l’evoluzione nello spazio tempo) inserendo una forma più generale della Costante Cosmologica libera di assumere un qualsiasi valore (0, un valore negativo o un valore positivo). La Costante Cosmologica diventa quindi una sorta di fluido (@1) che permea l’Universo e su cui esercita una pressione, positiva, negativa o nulla.
I parametri liberi di queste equazioni vanno determinati dalle osservazioni, et voilà, ecco che abbiamo la descrizione perfetta del nostro Universo.
(@1)
ndr:
o meglio di flusso!
si veda la mia teoria UA (universi Adiacenti):
https://6viola.wordpress.com/2016/04/26/hubbletufano-universes-theory-mathematics/
l’articolo del fisico Eleonora Presani continua al seguente link:
http://www.appuntidigitali.it/16342/nobel-per-la-fisica-2011-per-il-piu-grande-errore-di-einstein/
++
cit off-1
++
Disse, quindi bene, Einstein, -infine- (dopo di essersi accorto che la teoria della relatività generale poteva non dipendere solo dalla gravità ma anche da un flusso) nel notare che c’era qualche cosa che non andava nella teoria da lui descritta in dipendenza della sola gravità o corretta solo da una costante per far tornare i conti, e nel 2011 -infatti- è stato assegnato un premio nobel per la fisica su ciò (e cioé che non solo l’universo si espande, ma accelera!)
more info: cito
La Royal Swedish Academy of Science ha assegnato lo scorso 4 ottobre il Premio Nobel per la Fisica 2011 ex equo agli statunitensi Saul Perlmutter e Adam Riess e all’americano-australiano Brian Schmidt per la scoperta dell’espansione accelerata dell’universo attraverso l’osservazione dell’esplosione di stelle.
fonte:
http://www.asi.it/it/news/il-nobel-per-la-fisica-2011-torna-alla-cosmologia
—
Si faccia ora di leggere, con pazienza, (ma servirà per formarsi una idea non superficiale) la evoluzione delle vicissitudini di Hubble che quantificò inizialmente H0= 500 [km/s * Mps^(-1)] ; tra parentesi, quadre, la metrica di rappresentazione.
Al link seguente:
https://it.wikipedia.org/wiki/Legge_di_Hubble
Infatti in H0*D=v
si ottiene “v” (velocità) in km/s se si moltiplica H0 per D espresso in Mps (Mega parsec).
Purtroppo, per Hubble, fu una enorme cantonata fissare H0=500, poiché le stime odierne associano ad H0 un valore che oscilla tra 50 e 70 circa e quindi (500-50)/50= x/100 =450/50 -> x=900, 900%.
Se fosse stato (55-50)/50=y/100=5/50 -> y=5*100/50 -> errore del 5%, ma fece un errore del 900%, è da capire.
—
Si capisce, ora, che Hubble cercava semplicemente la distanza tra l’osservatore/osservato!, (tra il suo osservatorio astronomico sul nostro pianeta e una galassia e/o una stella) e non si pose “se e come”.. ciò dipendesse da moti locali o cosmologici, poiché una distanza è una distanza, prima ancora di ricostruire da quale cause sia originata! Infatti la misura indaga una fenomenologia, e non una eziodinamica! .. e quindi misura *i fatti* e non le teorie per cui quei fatti accadrebbero! (.. che riguardano -i modelli matematici- le “interpretazioni” di come si mostrerebbe la realtà).
Il problema, dunque era ed è, -per fare una verifica- se H0*D=v sia utilizzabile, quello di fare una cross-correlazione con altri metodi.
Per chi non conosce cosa significa “cross-correlazione” si sappia che, nelle tecniche radar, si lancia un segnale codificato al fine che solo la sorgente ne disponga dell’andamento esatto. La sorgente (radar) poi si mette in ascolto del segnale di ritorno ed esegue un integrale detto di crosscorrelazione tra il segnale inviato e quello ricevuto. Infine dal tempo di attesa tra il segnale inviato e quello ricevuto (dato dal valore temporale in cui l’integrale ha un valore di picco) si è in grado di fare una stima sia della posizione dell’oggetto e quindi della distanza dalla sorgente.
Nella situazione cosmologica non si può inviare un segnale ad una galassia lontana sperando che ritorni indietro!
Dunque si studia la luce emessa dalla stella singola o dall’ammasso stellare, per esempio, con la tecnica de “le candele standard”, poiché si può confrontare questa misura con altri metodi detti ad esempio di parallasse, ed altri ancora, e si stima .. come cambia il colore (ovvero la lunghezza d’onda) a secondo di quanto tempo abbia impiegato la luce a percorrere uno spazio.
Una di queste tecniche è detta, oggi, “redshift” se si misura lo spostamento verso il rosso della lunghezza d’onda originaria. (lo spostamento è verso “il rosso”, ossia ad un aumento della lunghezza d’onda se osservato/osservatore si stanno allontanando l’uno dall’altro).
Infatti esiste una relazione confermata dalla stessa teoria della relatività per cui le distanze nella lunghezza di una onda elettromagnetica (in breve: luce) si deformano e la formula è la seguente quando la distanza è in allontanamento radiale:
1+z=[rad(1+v/c)]/[rad(1-v/c)] detto effetto doppler relativistico
dove
1+z=L0/Le
L0=lunghezza d’onda al momento della misura osservatore.
Le=lunghezza d’onda al momento della misura emissione.
Sostanzialmente 1+z tenderebbe ad aumentare come lunghezza dell’onda elettromagnetica se la sorgente del segnale (per esempio una stella che emette fotoni) si muove alla velocità “v” in allontanamento.
Ciò pone però una questione non banale: in questa descrizione la v non può superare mai la velocità della luce. Anzi in prossimità della velocità della luce da parte della sorgente di emissione della onda elettromagnetica, la lunghezza d’onda diviene talmente ampia che il segnale svanisce, come stato limite (poiché la lunghezza d’onda diverrebbe infinita).
Va distinto però un segnale di cui la sorgente è visibile e si vuole stimare la v della sorgente, con un segnale generico perché se è vero che la equazione precedente può assumere anche valori 1+z -> ∞ quando v (della sorgente) -> c, la equazione potrebbe parlarci soltanto del nostro stato dimensionale in U1, e non che la velocità della luce sia insuperabile.. visto che si teorizza che la velocità della luce _deve_ essere stata superata per giustificare la evoluzione della materia come oggi la osserviamo!
Si usa allora l’escamotage di dire che questo è avvenuto nella variazione dello spazio, e non su forze localiste, e si cerca di assegnare alla H0*D=v, un ambito di sola conferma di quanto già dice la formula dell’effetto doppler relativistico, o formule simili, valide, ma valide per v < c.
Di recente in U1 (il nostro universo), le ultime galassie a z=11, sono con un segnale talmente debole anche per la grande distanza, che sembrano uscire non solo dalla misura, ma dalla rilevabilità nella nostra dimensione, anche se aumentassimo le caratteristiche del ricevitore.
Ecco il link alla data del 1 luglio 2016, che reca il record di z=11.9 per la galassia più lontana che associativamente è considerata la più veloce, sebbene si eviti di dire quanto sia veloce in esplicito, proprio per la non concordanza sulla interpretazione del metodo di misura di v.
https://it.wikipedia.org/wiki/GN-z11
Dunque, lo stato dell’arte è che durante .. le “peripezie della formula di Hubble” qualcuno ha proposto, ad oggi:
Ma perché non interpretare
H0*D=v come una Distanza “normalizzata” tale che quando v > c dia H0*D=v ancora valori minori di c?
In tal modo la formula di Hubble non darebbe il paradosso che introducendo la velocità del cosmo si osservi
Ho*D=v=2c per le galassie a z tra 30 miliardi di anni luce da noi, come distanza, e quindi con z tra 7.5 fino a 32 miliardi con z=11.9.
Nota Bene:
Si ottiene H0*D=v=2c se si sostituisce D=Dc=comoving distance, che è la componente principale della Dtot, ma come vedremo subito, invece, la versione oggi dominante è di denominare D=Dp -> in H0*Dp=vp
e ciò fornirà la “normalizzazione” richiesta da chi vuole tenere in piedi la teoria del Big Bang.
DIMOSTRAZIONE dell’uso distorto di Hubble:
++
cit on-2
++
—
Dalla tesi di De Rubertis:
www.infn.it/thesis/PDF/getfile.php?filename=4947-De+Rubertis-triennale.pdf
Vi mostro quanto varrebbe vp di Hubble secondo la versione ufficiale!
Sia
Dtot=D=Dproper=a(t)*X(t)=Dp
d/dt[D]= d/dt[a(t)]*X(t) + a(t)*d/dt[X(t)] = Dc + Dpec
Dc=comoving distance
Dpec=peculiar distance
dimostrazione che
Dc/Dp=d/dt[a(t)]/a(t)=H(t)
Dc=d/dt[a(t)]*X(t)
Dp=a(t)*X(t)
semplificando X(t) a numeratore e denominatore:
-> Dc/Dp=d/dt[a(t)]/a(t)=H(t) cvd.
—
Poiché, tesi De Rubertis:
(2.61) (2.62) a(t0)/a(t)=L0/Le=1+z
(2.43) Dc=a0/a*Dp=(1+z)*Dp;
vp={d/dt[a(t)]/a(t)}*Dp=H(t)*Dp=circa H0*Dp
(grazie a definizione di H(t), e associazione che v=vp, e D=Dp, oltre che la linearizzazione di H=H0 sia compatibile a fornire significato alla formula senza un errore il cui delta sia compatibile con gli scopi del modello)
Quindi
vp=H0*Dp=H0*Dc/(1+z) (grazie alla 2.43)
Dunque, sostituendo, D=Dp, la formula di Hubble non darebbe più 2c:
Infatti la formula da 2c se D=Dc (ip UA)
v=H0*D=2c, ip D=Dc
Mentre la formula da circa 1/10 della velocità, se uso D=Dp (ip Big Bang)
vp=H0*Dp=H0*Dc/(1+z) = 2c/10 con 1+z=10.
cvd.
++
cit off-2
++
In questo modo salviamo “capra, cavoli e lupo”, di trovare che non c’è nessuna distanza percorsa a velocità superiore a quella della luce ed Hubble restituirà v < c.
La scelta di considerare D=Dp è, però, sbagliata, allo stesso modo che si passò dal valore 500 = H0 agli inizi della proposta di Hubble alla proposta attuale di H0=50, nel senso che H0 è senzaltro più vicino a 50, ma necessita capire che cosa ci staremmo proponendo di descrivere, cambiando il coefficiente in una moltiplicazione di spazio e inverso di un tempo per ottenere una velocità .. velocità di cosa? .. rispetto a che? ..
🙂
TUTTAVIA I GRAFICI della z in cross correlazione con altri metodi! .. non danno altro legame che tra z e Dc!
—
Al link seguente si vede esplicitamente in ordinata la indicazione Dc/z, su una seconda fonte:
http://www.vialattea.net/esperti/php/risposta.php?num=14120
anteprima:
—
La interpretazione odierna ufficiale della formula di Hubble!
—
—
Traduco dalla foto precedente reperibile al link seguente:
https://en.wikipedia.org/wiki/Hubble%27s_law
Interpretation[edit]
The discovery of the linear relationship between redshift and distance, coupled with a supposed linear relation between recessional velocity and redshift, yields a straightforward mathematical expression for Hubble’s Law as follows:
La scoperta della relazione lineare tra redshift e distanza, accoppiata con una presunta relazione lineare tra velocità di allontanamento e redshift, produce una semplice espressione matematica per legge di Hubble, come segue:
where
is the recessional velocity, typically expressed in km/s.
- H0 is Hubble’s constant and corresponds to the value of
(often termed the Hubble parameter which is a value that is time dependent and which can be expressed in terms of the scale factor) in the Friedmann equations taken at the time of observation denoted by the subscript 0. This value is the same throughout the Universe for a given comoving time.
is the proper distance (which can change over time, unlike the comoving distance, which is constant)(*1) from the galaxy to the observer, measured in mega parsecs (Mpc), in the 3-space defined by given cosmological time. (Recession velocity is just v = dD/dt).
dove
- v è la velocità di allontanamento (o recessione), in genere espressa in km/s.
- H0 è la costante di Hubble e corrisponde al valore di H (spesso definito il parametro di Hubble, che è un valore che è dipendente dal tempo e che può essere espressa in termini di fattore di scala) nelle equazioni di Friedmann prese al momento dell’osservazione indicata con il pedice 0. Questo valore è lo stesso in tutto l’universo per un dato tempo comovente.
- D è la distanza “proper” (che possa cambiare nel tempo, a differenza di distanza comovente, che è costante) dalla galassia all’osservatore, misurata in mega parsec (Mpc),nello spazio tridimensionale definito da un tempo cosmologico. (Velocità di recessione è v = dD/dt).
—
Commento:
(*1)
Ma quando mai la “comoving distance” è costante? costante rispetto a che?
Come si potrà verificare nel seguito .. se tutti fossimo sulla superficie di una stessa bolla .. allora la velocità con cui si sarebbe gonfiata quella bolla (vc, velocità associata alla distanza comovente) sarebbe la stessa per tutti gli occupati della bolla!
Però ..
Sia che si vada al link di wikipedia:
https://en.wikipedia.org/wiki/Comoving_distance#Comoving_coordinates
Sia che si vada alla trattazione seguente:
http://www.vialattea.net/esperti/php/risposta.php?num=14120
dicesi:
comoving distance: Dc sul grafico, vedi ultimo link qui sopra,
è una curva in ordinata cartesiana che _varia_ (al variare di z (red shift))!
e precisamente
va da zero a circa 47 GLy (giga light years= 10^9 anni luce)
si vuole dire che, allora, che per un dato z, la comoving distanza è un valore dato!
Che quindi dipenderebbe dalla z e non dal tempo!
Anche questo, però è errato, in riferimento alla distanza Dc(t) poiché
Dtot(t)=a(t)X(t)
allora:
vtot(t) = d/dt[Dtot(t)] = d/dt[a(t)*X(t)] = d/dt[a(t)]*X(t) + a(t)*d/dt[X(t)]
quindi:
d/dt[a(t)]*X(t) = vrec(t), in cui varia “lo spazio cosmologico”
a(t)*d/dt[X(t)] = vpec(t); in cui varia “lo spazio locale”>>
Inoltre l’allontanamento di due galassie dipende prevalentemente da fattori locali, oppure cosmologici?
TH1:
Noi, che sosteniamo la UA, diciamo che il fattore prevalente di recesso è cosmologico, e solo marginalmente localistico in quanto localisticamente le galassie ruotano creando dei vortici.
Ma preso il centro di una galassia, come centro di massa di ciascuna galassia, e trascurando il loro ed il nostro vorticare, la misura prevalente è un allontanamento!
TH2:
E’ stato proposto che ciò corrisponda all’allontanamento (o anche detto recesso) perché due qualunque galassie, sopra la superficie di un pallone che si gonfia (ipotesi bolla singola come nella teoria del Big Bang) vedrebbe un allontanamento -> qualsiasi sia -> la posizione delle galassie. Ma questo è l’effetto su una singola bolla!, che non spiega la materia ed energia oscura, se non in qualche proprietà intrinseca ancora ignota, mentre la ipotesi di bolle concentriche (TH: UA), spiega che la maggiore distanza è anche indice di maggiore velocità rispetto alla sorgente delle bolle concentriche, anche in ipotesi di accelerazione costante, avendo le bolle più vecchie incrementato maggiormente la velocità di deriva dalla sorgente per il maggiore tempo trascorso, poiché
secondo la interpretazione ufficiale, e ANCHE secondo UA (sebbene la dinamica sia multibolla, e quindi le dinamiche sono plurime, dunque specifiche a ciascuna bolla):
d/dt[a(t)]*X(t) = vrec(t), in cui varia “lo spazio cosmologico” , ossia la variazione è rispetto al rigonfiamento dello spazio!
Da ciò, secondo la UA (Universi Adiacenti), in H0*D=v, va sostituito
D=Dc, distanza comovente, e si ottiene vrec, velocità di recesso cosmologico.
Del resto vrec è la componente maggiore di v(recession)+v(peculiar)= vtot
(in specie se si prende il centro di massa di ciascuna galassia come riferimento).
Infine:
D=Dproper=Dcomoving+Dpeculiar
d/dt[D] = d/dt[Dtot]= d/dt[Dproper]= d/dt[Dc] + d/dt[Dpec] = vrec + vpec
E se v(di Hubble)=vrec è logico immettere la d/dt[Dc] che è il contributo maggiore di Dproper. poiché Dpec è la distanza localista.
Quindi è appropriato introdurre in
H0*D=v,
la D=circa Dc, ed ottenere v=vrec coerentemente le citazioni sopra menzionate cvd.
Introdurre una D=Dc/(1+z) in v=H0*D è quindi una deformazione alla LOGICA, poiché analiticamente può essere pure coerente calcolare quanto vale Dc/(1+z), moltiplicato H0, ma H0 è l’inverso di un tempo! quindi moltiplicare in quella maniera -> “da una velocità”, se si divide una spazio diviso un tempo.
“Se lo spazio è quello cosmologico”, comunque lo si chiami!, .. il fattore z è quello che già altera Dc (la comoving distance), dunque se si vuole una velocità cosmologica, non si può di nuovo rinormalizzare la distanza sotto valutazione (in un intervallo di linearizzazione da cui H0), con 1/(1+z), poiché in tal modo, (scrivendo Dc/(1+z)), si riporta fuori -dalla espressione di Hubble- la deformazione cosmologica!, che invece deve _rimanere_ in Hubble a descrivere una velocità cosmologica.
Ribadiamo, però, che il fatto principale, tra le due TEORIE:
- Big Bang: quindi dello spazio in cui sarebbe impossibile superare v=c, anche nella formula di Hubble, perché si fa dire a Hubble che nonostante un Universo, U1, in accelerazione anche Hubble debba osservare solo 1+z=rad(1+v/c)/rad[1-v/c], con la conseguenza della inutilità della formula di Hubble!, poiché già è più precisa per v < c la formula dell’effetto doppler relativistico, qui sopra sottolineata.
- Universi Adicenti
La diversità, dunque, non è principalmente nell’uso o meno di Hubble! .. ma per quanto segue! ..
Nel Big Bang vi sarebbe una sola Bolla!, e l’universo sarebbe più giovane (rispetto a UA) ad un tempo totale (in Big Bang) di circa 14 miliardi di anni dalla sua formazione ad oggi.
Nella UA, noi, con Milky Way, siamo ugualmente a 14 miliardi di anni da quando siamo usciti da S0, ma nella nostra bolla!, .. poiché vi sono altre bolle prima e dopo di noi!
La linearizzazione di Hubble (che sia secondo UA), dunque, è solo dal punto di osservazione del nostro universo/bolla, e per ciò la galassia z8 non è sulla nostra stessa superficie della stella bolla e la luce avrebbe impiegato 13 miliardi di anni per allontanamento sullo stessa bolla man mano che la singola bolla si gonfiava. Osserviamo z8 -in UA- (INVECE) non dunque come galassia sulla stessa sfera!, ma esterna a noi, e su una sfera più ampia, di centro S0, sorgente di flusso cosmologico ancora agente!
Pensare che le correzioni introdotte dalla UA siano marginali -> giusta o sbagliata che sia questa teoria UA .. è non volere capire di cosa parli la UA.
In un flusso cosmologico, (secondo la UA), che non si è esaurito! .. ma che generi una accelerazione costante, e quindi un aumento progressivo delle velocità delle galassie, più una galassia va veloce e più è distante da S0. “So”, sorgente del flusso dell’insieme delle bolle concentriche che è la moltitudine delle bolle che si stanno gonfiando in modo concentrico.
Dunque z8, in UA, ribadiamo, la osserviamo, come galassia z8, con v=2c (se applichiamo correttamente Hubble, con D=Dc), non perché siamo sulla stessa superficie in cui c’è una sola bolla in cui tutte le galassie si allontanano, sulla stessa bolla, le une dalle altre man mano che la singola bolla (ipotesi Big Bang) si espande.
Ma perché z8, viaggia con v=3c, essendo più vecchia di noi, ed avendo quindi subito la accelerazione per un tempo maggiore di Milky Way, su una sfera maggiore della nostra, e noi, con v=c, da cui (delta v) tra osservato/osservatore = 3c-c=2c. Da cui Hubble restituisce non una velocità totale o assoluta, ma tra osservato ed osservatore, quindi relativistica e cosmologica, se D=Dc, dove Dc dipenda dalla espansione del cosmo, ovvero comoving Distance, se questo termine significa “distanza dovuta alla espansione del cosmo”.
E’ una rivoluzione copernicana.
Non si può capire, non si riesce a “visualizzare” .. se non si immagina -con disponibilità- che non siamo noi al centro dell’universo!, ma che esistono altri universi bolla.
Ciò, non ha conseguenze banali, poiché si capisce perché NON osserviamo la materia e la energia oscura!
Per maggiori info sulla UA indico due link principali:
1)
https://6viola.wordpress.com/2016/03/09/teoria-universi-adiacenti-ua-0/
2)
https://6viola.wordpress.com/2016/04/26/hubbletufano-universes-theory-mathematics/
Sul tema:
Vorrei sapere, in base alle ultime teorie, l’universo viene considerato FINITO o INFINITO ? Ho letto su riviste di astronomia circa la teoria dell’universo a ‘bolle’: di cosa si tratta ?
http://www.vialattea.net/esperti/php/risposta.php?num=6484
indicato da:
https://it.wikipedia.org/wiki/Legge_di_Hubble
—
Sul tema Galassia GN-z11:
http://www.asi.it/it/news/il-nuovo-record-di-hubble
si capisce che “z11” ad alto redshift è nata 400 milioni di anni dopo il big bang, mentre la nostra galassia “Milky” è nata circa?
https://it.wikipedia.org/wiki/Via_Lattea
<<Definire l’età esatta della Via Lattea presenta notevoli difficoltà; l’età della stella più antica conosciuta nella Galassia,HD 140283, con una stima di circa 13,6 miliardi di anni, una datazione non molto diversa da quella dell’Universo stesso.[31]
Questa stima è basata sulle ricerche condotte nel 2004 da un team di astronomi, che si servirono dello spettrografo del Very Large Telescope per misurare, per la prima volta, il contenuto in berillio di due stelle dell’ammasso globulare NGC 6397.[32] Da queste ricerche emerse che il lasso di tempo che separa la comparsa della prima generazione di stelle dell’intera Galassia da quella dell’ammasso globulare esaminato si aggira tra i 200 e i 300 milioni di anni; considerando l’età stimata delle stelle dell’ammasso globulare (13,4 ± 0,8 miliardi di anni), fu possibile stimare l’età delle stelle più vecchie della Via Lattea, che quindi si aggirerebbe sui 13,7 ± 0,8 miliardi di anni (ossia, appunto, circa 300 milioni di anni più vecchie). Se questi calcoli sono corretti, il disco galattico avrebbe un’età compresa tra 6,5 e 10,1 miliardi di anni.[33]>>
https://en.wikipedia.org/wiki/Milky_Way
The Milky Way as a whole is moving at a velocity of approximately 600 km per second with respect to extragalactic frames of reference. The oldest stars in the Milky Way are nearly as old as the Universe itself and thus likely formed shortly after the Dark Ages of the Big Bang.[9]
https://en.wikipedia.org/wiki/Chronology_of_the_universe#Dark_Ages
—
Sul tema: E’ possibile superare la velocità della luce?
—
Quali sono le risultanze sperimentali?
la questione delle QUASAR
—
AGGIORNAMENTO:
2 LUGLIO 2016, ORE 15:45
Scrive Dark_GRB:
E’ di questi giorni la notiza della scoperta del Quasi Stellar Radio Source – in arte quasar – piu’ distante, ULASJ1120+0641.
L’oggetto con questo complicato nome si trova a redshift 7, e la sua radiazione che ci arriva adesso fu emessa quando l’Universo, secondo la teoria del Big-Bang, aveva solo 700 milioni di anni, solo 1/20 dell’eta’ attuale. Per fare una proporzione, se l’Universo, che oggi ha 13 miliardi e mezzo di anni, fosse paragonabile ad un uomo adulto di 40, questo quasar sarebbe presente quando egli aveva solo 2 anni.
Lo studio di ULASJ1120+0641 ha richiesto anni ed anni di osservazioni con grandi telescopi, perche’ il suo segnale e’ molto debole, trovandosi cosi’ distante. Quasars cosi’ distanti sono importanti perche’ ci permettono di capire come, nell’Universo cosi’ distante, il gas intergalattico si stesse re-ionizzando e diventando trasparente alla radiazione. Questa fase della vita dell’Universo e’ di grande interesse per i cosmologi.
ULASJ1120+0641 doveva essere straordinario. Un quasar, per quello che sappiamo, e’ un nucleo galattico attivo, che riceve la sua energia mediante un processo di accrescimento di un buco nero centrale. Tale processo e’ in grado di rilasciare una quantita’ enorme di energia, convertendo in energia il ~ 10% della massa del gas che si accresce. La fusione nucleare di idrogeno in elio, che pure genera l’energia delle stelle piu’ luminose, converte solo lo 0.7%.
La luminosita’ (energia diviso tempo) prodotta da un quasar e’ proporzionale non solo alla massa che si accresce, ma anche alla massa del buco nero. Piu’ grande la massa del buco nero, maggiore la sua forza di gravita’, maggiore la quantita’ di materia che puo’ accrescere prima che la radiazione prodotta impedisca la caduta del gas verso il buco nero.
E qui nasce il problema. Facendo i debiti calcoli con l’enorme distanza, si trova che ULASJ1120+0641 doveva essere molto luminoso, e per spiegare tale luminosita’ si deve supporre una massa del buco nero pari a 2 miliardi di masse solari . Il buco nero al centro della Via Lattea e’ 1000 volte meno massiccio, ed anche un buco nero di un nucleo galattico attivo ha una massa tipica di 100 milioni di masse solari. Ora, la domanda e’: come avra’ fatto un buco nero ad accrescersi fino a raggiungere una massa cosi’ grande, in soli 700 milioni di anni? Nessuno dei nostri modelli cosmologici e di evoluzione galattica puo’ spiegare un buco nero cosi’ massivo cosi’ presto nella storia dell’Universo.
L’origine dei buchi neri supermassicci e’ un “topic” caldo della ricerca astrofisica degli ultimi anni, ma siamo ben lontani da aver capito quale essa sia stata. Alcuni astrofisici ritengono che, nel centro delle galassie primordiali, massicce nubi di gas si trovarono cosi’ vicine che collassarono direttamente in un buco nero, senza nemmeno produrre stelle. Altri ritengono che stelle di massa molto grande furono prodotte in colossali ammassi. Le orbite delle stelle di massa piu’ grande di questi ammassi finirono per concentrarsi nelle zone centrali, attraverso il processo di “segregazione di massa”, e questi astri ed i buchi neri da essi prodotti si fusero e finirono per formare un buco nero supermassiccio.
Entrambi i modelli presentati, comunque, non arrivano comunque a spiegare un oggetto di massa cosi’ grande prodotto in cosi’ poco tempo!
Gli astrofisici teorici ora dovranno grattarsi la testa per un po’.
Piu’ info:
http://en.wikipedia.org/wiki/ULAS_J1120%2B0641
http://www.skyandtelescope.com/news/home/124868524.html
Ciao, Dark
fonte:
http://www.trekportal.it/coelestis/archive/index.php/t-40535.html

Commenti
Pasquale Tufano Il punto è che la scienza può essere esposta come una tautologia, senza dubbi. Oppure mostrare se vi sono ancora dei problemi aperti.
Pasquale Tufano Uno dei problemi aperti dalla classificazione tramite il redshift sono proprio i quasar che lasciano molti dubbi che la deformazione della lunghezza d’onda sia originata solo dalla distanza.
Pasquale Tufano Nella mia teoria, di cui si è discusso, qui, di recente, la lunghezza d’onda di un segnale elettromagnetico è _prevalentemente_ ed in modo discorde dalle teorie attuali, generato NON direttamente dalla distanza, ma dalle caratteristiche di velocità della sorgente emittente, in modo coerente con l’effetto doppler relativistico, in cui si può misurare che la lunghezza d’onda è millimetricamente dipendente da ciò.
Pasquale Tufano Ora è vero che se si immagina una evoluzione omogenea del cosmo e sotto un flusso analogo -allora- tutti gli enti dovrebbero risentire localmente la stessa influenza, ma ci sono notevoli ragioni per dire che il cosmo è solo apparentemente omogeneo: infatti se fosse perfettamente omogeneo avremmo tutte le stelle uguali e alla stessa distanza 🙂
Pasquale Tufano Dunque sia la legge di Hubble, che tutte le altre formule come l’effetto doppler relativistico danno gli stessi risultati per v < c, e chi fa ricerca non è che si pone di riposare sugli allori ..
Pasquale Tufano Il problema, invece, sorge se il flusso del cosmo imponesse, per le stesse ragioni per cui hanno assegnato un premio nobel nel 2011 “che la velocità delle galassie sia accelerata!”
Pasquale Tufano Al lume della logica non vi è nessuna ragione del fatto che vi siano gli stessi vincoli alla velocità della luce -a livello cosmologico- come in un normale acceleratore di particelle (ad esempio LHC) .. la ragione è presto detta: nessuno della comunità scientifica internazionale sosterrebbe in pubblico che v > c non sia MAI avvenuto a livello cosmologico!
Pasquale Tufano E non lo sosterebbe perché senza una accelerazione v > c sarebbe impossibile la datazione ANCHE secondo la teoria del Big Bang della materia e dell’abbassamento della temperatura, et altro per come la misuriamo oggi.
1) lato si cercano teorie che spieghino perché manca oltre il 90% della massa e della energia (e le si chiamano oscure perché non le si riesce a collocare con le teorie attuali)
2) e in seconda istanza chiunque proponga dei dubbi sulle teorie attuali lo si perseguita come se avesse “bestemmiato in chiesa” 🙂
Pasquale Tufano Valerio Formato, che ringrazio, si è voluto pregiare di aver fatto “un caso di scuola” di come si confuterebbe una teoria fuori della scienza.
Pasquale Tufano Gli riconosco volentieri che io affermo cose _diverse_ dalle teorie oggi accolte.
Pasquale Tufano Ma ciò forse implica che una tesi sia migliore di un’altra?
Pasquale Tufano Quindi “cerchiamo di stare sul pezzo” 🙂 .. “come si valida una teoria?”
1) un modello teorico coerente
2) delle evidenze sperimentali che almeno approssimativamente confermano le evidenze teoriche con le prove sperimentali.
TH:
il redshift non è associato solo alla distanza (come dice il Big Bang), ma alle caratteristiche della sorgente.
Pasquale Tufano E’ una affermazione che può essere sottoposta a verifica? .. sì .. poiché ad esempio la semplificazione di Hubble nell’attribuire solo alla distanza la corrispondenza tra z e Dc non è soddisfatta dalle quasar.
Pasquale TufanoMi fermerei qui, per ora, perché le implicazioni di trovarsi daccordo anche solo su queste premesse, mi porterebbe a spiegare cosa intendo con il Pollicino Effect, ma sarebbe inutile provare a dirlo se non c’è una reciproca stima di dire cose sensate (almeno nell’esame, riservandosi le critiche a un ragionamento), grazie dell’attenzione 🙂
La mia intervista di ieri, 4 luglio 2016, rilasciata all’ing. Fabio Sipolino:
dal min 0 al min 15:
1) argomento: cenni sulle teorie cosmologiche (la UA, teoria Universi Adiacenti)
—
dal min 15 al min 18:
2) argomento: La terra è piatta?
—
dal min 18 al min 19,40
3) “perché servono crisi e gravi crisi?”
Nota Bene: il virgolettato è una frase di Mario Monti in una intervista a Gad Lerner il 11.11.11
—
dal min 19,40 al min 20,40
4) su la Brexit
—
dal min 20,40 al min 21,40
5) su “effetto Bisonte” (in borsa)
—
dal min 21,40 al min 22,00
6) Architetture monetarie
—
dal min 22,00 al min 22,55
7) soluzione del problema di teoria dei controlli:
“Chi controlla il controllore?”
—
dal min 22,55
8) cosa sono le Architetture “neurali”?
—
dal min 23,36
9) tecniche di de-stabilizzazione dei concetti di riferimento dell’equilibrio mentale nelle psicologie di massa.
—
dal min 24,18
10) soluzione del paradosso di Zenone di Achille che raggiunge la Tartaruga! (tecnica empiristi (ingegneri) vs tecnica astratta(fisici _teorici_).
—
dal min 26,22
11) tecniche di intelligenza collettiva
—
dal min 26,40
12) i modelli di gestione del flusso delle informazioni sono continentali? .. oppure sono unificati?
—
dal min 32,00
13) ancora sulle tecniche mass mediali nella intelligenza concentrata, anziché collettiva. (teoria dei modelli)
—
dal min 33,40
14) commento all’articolo del fisico Giuliana Conforto “sul concetto che gli illuminati salveranno il pianeta”
—
dal min 35,20
15) La tecnica “nani sulle spalle di giganti”
—
dal min 35,30
16) il web ha dato la parola ai cretini? (Umberto Eco), oppure ha creato un nuovo tipo di intelligenza detta “collettiva”?
—
dal min 36,31
17) come navigare nella _massa_ (non banale) di tutta la _informazione_
se sulla superficie vi sono tecniche di de-pistaggio a sapere i fatti?
i) sapere identificare la “superficie del web”
ii) dal “deep web”, laddove versus (e quindi contro,prevalentemente) il “deep web” è già in corso un processo di associazione di sole “tecniche considerate gestite dalla criminalità”, onde scoraggiare una ricerca autonoma che si discosti dai “pareri autorevoli”.
—
dal min 38,40
18) la dinamica degli “stati saturati” nella teoria della informazione e nella scienza, la gestione della ACCADEMIA: “scansati ragazzo e lasciami lavorare!”
—
dal min 41,00
19) le tecniche di cybernetics nel web e nella epistemologia
—
dal min 41,30
20) l’era dei robots al posto degli umani che cambiamenti comporterà?
—
il video, segue, grazie dei Vs commenti:
—
06.07.2016 ore 15:00