L’algebra classica nel Sette e Ottocento
Nella seconda metà del XVIII secolo lo studio delle equazioni si orienta in una nuova direzione: non più la sfrenata ricerca di una formula di risoluzione, bensì la ricerca dell’esistenza della soluzione. All’opera di grandi matematici, tra i quali L. Euler, J. d’Alembert, Lagrange, S. Laplace, si deve l’impostazione e i primi tentativi di dimostrazione del cosiddetto teorema fondamentale dell’algebra [63]. Questo teorema, che può essere formulato in diversi modi equivalenti, afferma che
ogni equazione algebrica di grado n
a coefficienti complessi possiede n radici complesse.
Il primo tentativo serio di dimostrare il teorema fondamentale dell’algebra fu fatto nel 1746 da d’Alembert. Per una equazione polinomia f(x)=0, prendeva dei numeri reali b e c tali che f(b)=c. Mostrava poi che esistevano dei numeri complessi z’ e w’ tali che |z’|<|c| e |w’|<|c| e iterava il procedimento di convergenza a zero di f.
Primo, usava un lemma non dimostrato (sarà dimostrato nel 1851 da Puiseau utilizzando il teorema fondamentale dell’algebra); secondo, non aveva le necessarie conoscenze per usare argomenti di compattezza per ottenere la convergenza finale. In ogni modo, le idee nella sua dimostrazione sono importanti.
Euler fu presto capace di provare che ogni polinomio reale di grado n (con n6) ha esattamente n radici complesse. Nel 1749 tentò una dimostrazione del caso generale, quindi cercò di dimostrare il teorema fondamentale dell’algebra per polinomi reali:
ogni polinomio di grado n con coefficienti reali ha precisamente n radice in C.
La dimostrazione presentata in Recherches sur les racines imaginaires des équations si basava sulla decomposizione di un polinomio monico di grado nel prodotto di due polinomi monici di grado
. Siccome un polinomio arbitrario può essere convertito in un polinomio monico moltiplicandolo per
per qualche k, il teorema seguiva iterando la decomposizione. Euler sapeva che si poteva applicare un trasformazione per rimuovere il termine del polinomio col secondo grado più grande (cioè di grado n-1). Quindi assumeva che
poi moltiplicava e comparava i coefficienti. Faceva questo in dettaglio per il caso n = 4, ma il caso generale era solo abbozzato.
Nel 1772 Lagrange sollevò delle obiezioni sulla dimostrazione di Euler. Obiettava che le funzioni razionali di Euler potevano portare a 0/0. Usava le sue conoscenze sulle permutazioni di radici per riempire le lacune della dimostrazione di Euler eccetto che assumeva che le equazioni polinomiali di grado n dovevano avere n radici di un qualche tipo, così che poteva operare con queste e dedurre delle proprietà.
Laplace, nel 1795, cercò di provare il teorema fondamentale dell’algebra usando un approccio completamente diverso, cioè usando il discriminante del polinomio. La sua dimostrazione era molto elegante, ma il problema consisteva nell’assumere l’esistenza della radice.
La prima dimostrazione rigorosa è dovuta a Gauss. Nella dissertazione di dottorato del 1799, Gauss elencava le obiezioni alle altre dimostrazioni e dimostrava che ogni equazione polinomia f(x)=0 ha almeno una radice, sia che i coefficienti siano reali o immaginari. Riportiamo qui non i dettagli della dimostrazione ma le linee generali del suo pensiero.
Risolviamo graficamente l’equazione , mostrando che esiste un valore complesso di z = a + bi che soddisfa l’equazione. Sostituendo z con a + bi e separando la parte reale da quella immaginaria dell’equazione, otteniamo
e ab – 2 = 0. Interpretando a e b come quantità variabili e rappresentando graficamente queste equazioni sul medesimo insieme di assi, uno per la parte reale a, l’altro per la parte immaginaria b, otteniamo due curve: una è formata dalle rette a + b = 0 e a – b = 0, l’altra dall’iperbole equilatera ab = +2. Risulta chiaro che le due curve hanno un punto di intersezione P nel primo quadrante (e uno P’ nel terzo quadrante). Si noti in particolare che un ramo della prima curva si allontana dall’origine nelle direzioni
e
, e che un ramo della seconda curva si avvicina asintoticamente alle direzioni
e
; il punto di intersezione si trova tra le ultime due direzioni,
e
. Le coordinate a e b di questo punto di intersezione sono le parti reale e immaginaria del numero complesso che rappresenta una soluzione dell’equazione
. Se la nostra equazione polinomiale di partenza fosse stata di terzo grado avremmo avuto una curva con un ramo che si avvicinava alle direzioni
e
e l’altra curva si sarebbe avvicinata alle direzioni
e
. I rami sono continui in entrambi i casi; pertanto devono intersecarsi in qualche punto compreso nell’intervallo fra
e
. Per un’equazione di grado n, vi saranno due curve tali che un ramo dell’una avrà le direzioni asintotiche
e
, mentre un ramo dell’altra avrà le direzioni asintotiche
e
; questi rami si intersecheranno necessariamente nell’intervallo compreso fra
e
, e le coordinate a e b del punto di intersezione saranno le parti reale e immaginaria del numero complesso che soddisfa l’equazione. Risulta pertanto evidente che, qualunque sia il grado di una equazione polinomiale, questa avrà necessariamente una radice complessa. Pertanto da questo risultato possiamo dimostrare la tesi di Gauss che ogni polinomio di una variabile può venire scomposto nel prodotto di fattori reali di primo e secondo grado.
La dimostrazione del teorema fondamentale dell’algebra presentata da Gauss era basata in parte su considerazioni geometriche. Parecchi anni più tardi, nel 1816, Gauss ne pubblicò due nuove dimostrazioni, e un’altra ancora nel 1850, cercando di dimostrarlo con metodi puramente algebrici.
Nella prima metà del XIX secolo viene affrontato e risolto un altro grande problema dell’algebra classica: quello della risolubilità o meno di un’equazione algebrica mediante radicali, cioè di esprimerne le soluzioni operando sui coefficienti dell’equazione con operazioni razionali ed estrazioni di radice di vario indice. L’italiano P. Ruffini e il norvegese N. E. Abel dimostrarono, indipendentemente, che l’equazione generale di quinto grado non è risolubile mediante operazioni del tipo indicato. Ma è al francese E. Galois che si deve il risultato più generale:
un’equazione è risolubile mediante operazioni razionali ed estrazioni di radice quando e soltanto quando il gruppo di Galois ad essa associato è risolubile.
In caso contrario, per ottenere la determinazione numerica delle radici, è necessario ricorrere a procedimenti di approssimazione che esulano dal dominio proprio dell’algebra.
Ulteriori sviluppi l’algebra classica ha ricevuto dallo studio dei polinomi e delle equazioni algebriche in due o più variabili. In particolare la ricerca delle condizioni di compatibilità di un sistema di un sistema di due equazioni algebriche, o più in generale per la risolubilità di un sistema di un numero qualunque di equazioni algebriche in un numero qualunque di incognite, ha promosso rispettivamente la costruzione della teoria del risultante (J. J. Sylvester, A. Cayley) e della teoria della eliminazione (L. Kronecker, E. Bezout). Con alcune delle teorie accennate, come la teoria di Galois, e più tardi con la teoria generale delle forme algebriche in due o più variabili e dei relativi invarianti, sviluppata da Cayley e Sylvester, cominciano a configurarsi alcuni degli strumenti caratteristici dell’algebra moderna, attraverso la considerazione di nuovi tipi di insiemi con operazioni (nei quali cioè sono definite una o più leggi di composizione tra elementi, come per esempio i gruppi [64]), studiati dapprima in concreto e separatamente (C. Jordan, O. Holder, J. W. R. Dedekind, G. F. Frobenius, ecc.)e poi da un punto di vista sempre più generale e assiomatico. Si arriva così agli inizi dell’algebra moderna.
Fonte: Angela Montanari- Corso di laurea in matematica- Università di Ferrara
Rispondi