In questo articolo andremo a scoprire quali sono i migliori libri su entropia e sintropia, due concetti di indubbio fascino e avvolti da sempre da un alone di mistero.
Con il termine entropia (dal greco antico ἐν en, “dentro”, e τροπή tropé, “trasformazione”) si indica, in ambito scientifico, una grandezza, indicata con la lettera S (o meglio una coordinata generalizzata), presa come misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso ultimo, l’universo.
Il concetto di “entropia”, anche se è oramai entrato nel linguaggio comune, è in realtà di ardua comprensione, e per comprendere appieno cosa sia bisognerebbe possedere almeno una conoscenza di base di termodinamica e meccanica quantistica (che ne forniscono una definizione macroscopica, data dalla termodinamica, e una definizione microscopica, data, ovviamente, dalla meccanica quantistica).
Per una definizione semplificata (ma non rigorosa) e comprensibile a tutti possiamo definire l’entropia come il “grado di disordine” di un sistema. Ad un aumento del “disordine” di un sistema si associa, quindi, un aumento di entropia, e viceversa. Ad esempio, in termodinamica classica, dove S è funzione di stato di un sistema in equilibrio termodinamico, quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia cresce di conseguenza. L’entropia è quindi definita in termodinamica come una certa variazione, in meccanica quantistica, invece, è possibile definire l’entropia in termini assoluti, ad esempio utilizzando il concetto di l’entanglement.
Con il termine sintropia (o neghentropia, dall’inglese “negative entropy” ovvero “entropia negativa”, solitamente indicata con N, o niroentropia, o sintaxia) si indicano quei fenomeni che danno origine a strutture tendenti all’ordine, come gli esseri viventi, in cui aumenterebbe appunto la sintropia, opponendosi alla tendenza naturale al disordine, ossia all’entropia.
La parola neghentropia, “entropia negativa”, viene utilizzata dal grande scienziato Erwin Schrödinger nel suo libro divulgativo “Cosa è la vita” (1943), che consigliamo a tutti di leggere, e che è presente nella nostra selezione dei migliori libri su entropia e neghentropia (o sintropia).
L’anno seguente il Premio Nobel Albert Szent-Györgyi, nel 1974, ha proposto la sostituzione della parola neghentropia con sintropia (syn=convergente, tropos=tendenza), termine inventato nel 1942 dal matematico italiano Luigi Fantappié.
Questo grande scienziato italiano, laureato in matematica alla Scuola Normale Superiore di Pisa, conosciuto purtroppo solo dagli addetti ai lavori, partendo dalle soluzioni delle equazioni ondulatorie che rappresentano le principali leggi fisiche, ha elaborato il tentativo di una teoria unificata che correla la fisica alla biologia: la “Teoria unitaria del mondo fisico e biologico” (1942). Fantappié introduce qui il concetto di sintropia che è formalmente equivalente a quello di informazione elaborato da Hartley nel 1928 e a quello di negentropia proposto da Schrödinger nel 1943. Abbiamo coerentemente inserito nel nostro articolo come suggerimento di lettura il testo “Principi di una teoria unitaria del mondo fisico e biologico e conferenze scelte”.
La grande intuizione di Fantappié consiste nel considerare le soluzioni progressive e regressive dell’equazione delle onde come processi entropici e “sintropici”: le soluzioni che vanno verso il futuro, quindi avanti nel tempo, danno origine ai comuni fenomeni fisici in cui l’entropia aumenta, e viceversa per le soluzioni che procedono indietro nel tempo. Secondo Fantappié, in parole semplici, i fenomeni sintropici distinguono la materia vivente da quella che non lo è e sono finalistici, perché determinati da cause poste nel futuro, oltre che non riproducibili in laboratorio!
Cliccando sulle copertine si accede alle schede complete dei libri su Amazon, con tutti i dettagli e le recensioni dei lettori. Le edizioni qui riportate sono quelle più aggiornate disponibili .
Contenuti
Che cos’è l’entropia. Ordine, disordine, evoluzione dei sistemi
Sintropia, entropia, informazione. Una nuova teoria unitaria della fisica, chimica e biologia
Che cos’è la vita? La cellula vivente dal punto di vista fisico
L’evoluzione dopo Darwin. La teoria sintropica dell’evoluzione
Che cos’è la sintropia. Principi di una teoria unitaria del mondo fisico e biologico e conferenze scelte
Entropia. Un affascinante viaggio tra ordine e disordine
Caos caso cosa. Racconti dell’entropia
Georgescu-Roegen. La sfida dell’entropia
Introduzione alla sintropia – Origini della vita, evoluzione e coscienza alla luce della legge della sintropia
Irreversibilità, entropia, informazione. Il secondo principio della scienza del tempo
Entropia e arte
Un celebre paradosso legato al concetto di entropia è il “paradosso del cervello di Boltzmann”. Un cervello di Boltzmann è un’ipotetica entità autocosciente, nata a causa di fluttuazioni quantistiche da uno stato di caos. Il “paradosso del cervello di Boltzmann” nasce dalla constatazione che l’universo è pervaso da un alto grado di organizzazione (cioè un basso livello di entropia). Il secondo principio della termodinamica, però, stabilisce che l’entropia totale in un universo chiuso non diminuisce mai. Di conseguenza l’universo dovrebbe trovarsi in uno stato di entropia alta. Ma allora perché l’entropia osservata è così bassa?
Secondo Boltzmann noi e il nostro mondo a entropia bassa siamo solo una fluttuazione casuale in un universo di entropia alta. Secondo il paradosso del cervello di Boltzmann l’esistenza di un qualunque osservatore (un cervello consapevole di se stesso e dotato di falsi ricordi) è più probabile che esista sotto forma di cervello di Boltzmann piuttosto che come risultato dell’evoluzione.
Lascia un commento