PROGRAMMA DEL CORSO DI ANALISI MATEMATICA II E ALGEBRA LINEARE ANNO ACCADEMICO 2011/2012 ---------------- ALGEBRA LINEARE INTRODUZIONE. I vettori geometrici e le loro operazioni. Identificazione fra vettore e l'insieme delle coordinate del suo estremo libero. Cenni alle coordinate lagrangiane : scavatore a braccio articolato e mano. Introduzione ai sistemi di primo grado e formulazione vettoriale dei sistemi lineari. RISOLUBILITA` DEI SISTEMI DI EQUAZIONI LINEARI. Introduzione all'algoritmo di Gauss di eliminazione per la risoluzione dei sistemi di primo grado. Notazione compatta. Operazioni elementari di trasformazione di un sistema avente le medesime soluzioni, o altre che differiscono da esse solo per l'ordine: permutazioni di righe, di colonne, moltiplicazione di una riga per un numero non nullo, e somma membro a membro di una riga ad un'altra. Sistemi con righe o colonne tutte nulle, e con una riga nulla con termine noto non nullo (sistemi impossibili). Sistemi elementarmente risolubili e matrice dei coefficienti corrispondenti: sistemi "risolti", diagonali, triangolari: condizioni sulla diagonale per la risolubilita` e tecnica di risoluzione completa (sostituzione all'indietro). l'algoritmo di eliminazione di Gauss: trasformare, mediante trasformazioni elementari, il sistema dato in uno a scala. Definizione astratta di sistema a scala e risoluzione: incognite pivot e non-pivot (parametriche); risoluzione simultanea di un sistema con termini noti multipli: l'algoritmo di Gauss-Jordan in alternativa alla sostituzione all'indietro. SPAZI EUCLIDEI. Prodotto Cartesiano. Lo spazio Rn, zero, opposto, somma, multiplo. Assiomi di spazio vettoriale: assiomi di gruppo abeliano, distributività e loro rilevanza per poter estendere ai vettori le tecniche di risoluzione delle equazioni note dall'algebra elementare. Definizione di combinazione lineare, span, generatori. Definizione di sottospazio. Lo span di un numero finito di vettori è un sottospazio. I sottospazi di R2 e le rette per l'origine. Proprietà conseguenti agli assiomi: annullamento del prodotto. La base canonica in Rn: genera tutto Rn e smette di farlo se viene eliminato uno solo dei suoi vettori. Notazione vettoriale per i sistemi lineari e le loro soluzioni. Equazione in forma parametrica della retta. Conversione fra le forme parametrica e cartesiana (implicita). Sistemi lineari e il problema di determinare se un vettore dato appartiene allo span di un insieme di vettori dati. Il prodotto scalare sugli spazi vettoriali reali: proprietà costitutive (funzione bilineare, simmetrica, definita positiva). Il prodotto scalare canonico su Rn (somma dei prodotti delle coordinate omonime): verifica delle proprietà. Proprietà non godute dal prodotto scalare: associativita`, annullamento del prodotto. Norma negli spazi euclidei. Proprietà assiomatiche delle norme. Versori: forma vettoriale della forza newtoniana. Distanza negli spazi normati. Assiomi della distanza. Sfere. Il prodotto scalare e il coseno dell'angolo formato: identità col prodotto scalare introdotto in fisica (prodotto dei moduli per il coseno dell'angolo). Proiezione di un vettore nella direzione di un altro. Vettori ortogonali. Teorema di Pitagora, di Carnot, identità del parallelogramma, uv = (|u+v|^2 - |u-v|^2)/4. Proprietà caratteristiche della proiezione: linearità, P^2=P. Teoremi sulla proiezione: ortogonalità del resto, minima distanza, la proiezione riduce la norma (disuguaglianza di Schwartz). Un'altra dimostrazione. Disuguaglianza triangolare per la norma euclidea. Il caso dell'uguaglianza. Sistemi ortogonali e ortonormali: la proiezione sullo span di un sistema ortogonale è la somma delle proiezioni su tutti i vettori. Complemento ortogonale: prova che è un sottospazio. Area di un parallelogramma o di un triangolo in Rn: formula in funzione di norme e prodotto scalare; altra formula (solo enunciato) in funzione dei determinanti 2x2 estratti. Prodotto vettore in R3: definizione, modulo, proprietà caratteristiche: bilinearità e antisimmetria. Altre proprieta`: ortogonalita` con i fattori, area e modulo, identita` di Lagrange. Lo spazio Cn. La struttura euclidea in Cn: il prodotto hermitiano canonico in Cn e le sue proprietà carateristiche: sesquilinearità, emisimmetria e positività. INTRODUZIONE ALLA GEOMETRIA IN Rn CON I VETTORI. Proiezione di un vettore su un altro, sullo span di un sistema ortogonale, su uno span di vettori indipendenti generici, in Rn e Cn. Rette parametriche per un punto, intersezioni e "collisioni". Interpretazione vettoriale dell'equazione implicita della retta per l'origine. Retta normale ad una direzione per un punto dato. Classificazione delle intersezioni di rette: rette parametriche coincidenti, incidenti, parallele, sghembe. Bisettrice di un angolo. Piani: ogni equazione di I grado rappresenta un piano normale al vettore dei coefficienti delle incognite. Retta di minima distanza fra due rette sghembe. Rette cartesiane in R3 e piani parametrici in R3. Forma parametrica di semirette, angoli, segmenti; combinazioni lineari, convesse, coniche. Poligono convesso contenente n punti. Punto medio del segmento e bisettrice di un angolo. Piani e rette parametrici e cartesiani: conversione fra le due forme ed intersezioni. Piano cartesiano e parametrico per tre punti. SOTTOSPAZI. Sottospazio somma e intersezione di sottospazi dati. Somma diretta di due spazi e relativa condizione necessaria e sufficiente sull'intersezione. Condizioni per l'inclusione e l'uguaglianza, e calcolo dell'intersezione di sottospazi generati da un numero finito di vettori in Rn mediante l'algoritmo di Gauss. Un criterio di inclusione fra due sottospazi di Rn o Cn : è sufficiente che siano inclusi i generatori. SPAZI VETTORIALI ASTRATTI. Spazi vettoriali astratti di dimensione finita e infinita: Rn; Cn; lo spazio dei polinomi e quello dei polinomi di grado massimo assegnato; lo spazio delle funzioni continue su un intervallo chiuso e limitato. Spazi euclidei e normati: la norma del massimo modulo sullo spazio delle funzioni continue: verifica delle proprietà; il prodotto scalare L2 sullo spazio delle funzioni continue su [0,pi greco], con verifica delle proprietà. Il sistema ortogonale di Fourier (sin ht, h intero) e cenni alla decomposizione di Fourier e ai suoi legami con il concetto di proiezione rispetto al prodotto scalare di L2. Cenni al prodotto L2 complesso ed al relativo sistema ortogonale degli esponenziali (e^iht, h intero relativo). INDIPENDENZA LINEARE, BASI, DIMENSIONE. Il concetto di dipendenza lineare: definizione e caratterizzazione (dei vettori sono dipendenti se e solo se almeno uno di essi è combinazione degli altri). Esempi di vettori indipendenti: sistemi "triangolari" e "diagonali" di vettori in Rn e Cn, e vettori mutuamente ortogonali in uno spazio euclideo. Esempi di vettori dipendenti: (1, sin^2 x, cos 2x), sistemi contenenti lo zero, due vettori collineari o tre complanari. Equivalenza fra l'indipendenza delle colonne di un sistema lineare e l'unicità della soluzione per ogni secondo membro per il quale il sistema sia risolubile. Indipendenza lineare di potenze (con il principio d'identita` dei polinomi), fratti semplici ed esponenziali complessi nei relativi spazi di funzioni continue. Effetti della rimozione di un elemento da un sistema di generatori: lemma fondamentale (un elemento puo` essere soppresso senza alterare lo span se e solo se e` combinazione dei rimanenti) e lemma di scambio (un elemento non nullo di uno span puo` essere inserito al posto di uno dei generatori senza alterare lo span, se scelto opportunamente). Aggiungere un vettore non appartenente allo span di un sistema indipendente ne mantiene l'indipendenza. Definizione di base. Teorema di esistenza della base. Altri teoremi fondamentali: massimo numero di vettori indipendenti, della dimensione (ogni base ha lo stesso numero di elementi), dei generatori (ogni sistema di vettori indipendenti in numero pari alla dimensione e` una base), del completamento (ogni sistema di vettori indipendenti puo` essere completato ad una base). Applicazioni: calcolo della dimensione di: Rn, Cn, lo spazio dei polinomi di grado massimo fissato, le funzioni razionali (il denominatore dei quali ha tutte le radici reali e distinte, ed il numeratore è di grado minore); la base alternativa dei fratti semplici ed esistenza della decomposizione in fratti semplici per le funzioni razionali precedenti. Coordinate di un vettore rispetto ad una base: unicità. Teorema di Grassmann sui sottospazi: il caso generale e quello della somma diretta. Teoria vettoriale dei sistemi lineari: teorema di Rouchè, di Cramer, di unicità. Applicazioni dell'algoritmo di eliminazione per la risoluzione di vari problemi concernenti indipendenza, basi e dimensione: calcolo della dimensione di uno span, estrazione di una base dai generatori di uno span. Completamento di un sistema in Rn ad una base: scelta dei pivot. APPLICAZIONI LINEARI. Linearita`. Valore in 0. Nucleo, immagine, rango. Iniettivita`, suriettivita`, biiettivita`, invertibilita` ed inversa. Nucleo e immagine della derivata fra C1 e C0. Il nucleo e l'immagine sono sottospazi. Condizione sul nucleo per l'iniettività; dim A(X)<=dim X. Il teorema di Grassmann per le applicazioni lineari, inclusi i casi nei quali dim(Ker A)=0 oppure dim A(X)=0; iniettività <--> dim A(X)= dim X. Un sottospazio di uguale dimensione coincide con tutto lo spazio. Teorema di Cramer (versione astratta): un'applicazione lineare fra spazi di uguale dimensione è suriettiva se e solo se è iniettiva. Equazioni lineari astratte: principio di sovrapposizione e struttura delle soluzioni (soluzione particolare più elemento del nucleo). Esempi: equazioni differenziali lineari a coefficienti costanti e sistemi lineari. APPLICAZIONI LINEARI FRA SPAZI DI DIMENSIONE FINITA. Applicazioni lineari fra spazi euclidei Rn e prodotti vari: i casi da R a R, da R a Rn, da Rn a R e da Rn a Rm. La matrice associata ad un'applicazione lineare fra Rn e Rm. Il caso di applicazioni fra spazi astratti di dimensione finita: la derivata sui polinomi di grado massimo 2. L'algoritmo di eliminazione ed il calcolo della matrice associata e dei generatori del rango e del nucleo di un'applicazione lineare fra spazi euclidei. Basi per il nucleo di un operatore lineare fra spazi euclidei. Esistenza e determinazione di applicazioni linari che assumano valori dati su vettori dati. Matrice associata alla derivata fra lo span complesso di base sin t e cos t e lo span complesso di base e^(it) ed e^(-it) (coincidente col precedente). MATRICI. Le matrici: somme e multipli scalari; matrice nulla. Vettori riga e vettori colonna. Prodotto di matrici (righe per colonne). Prodotto matrice per vettore; notazione matriciale equivalente per i sistemi lineari. Proprieta` associativa e distributiva; contresempio alla commutativita`. Matrice identica. Struttura e prodotto a blocchi (se B si pensa come una riga di vettori colonna B1 B2 ... Bn il prodotto AB si puo` rappresentare come A(B1 B2 ... Bn)=(AB1 AB2 ... ABn) ed analoga per le righe). Matrice inversa e sistemi lineari equivalenti. Prodotto di matrici a blocchi. Matrice trasposta (o aggiunta) e sue proprieta`: trasposta del prodotto e comportamento rispetto ai prodotti scalari. Matrici autoaggiunte; caso reale: matrici simmetriche. Invertibilita` di matrici: le dimensioni degli spazi devono coincidere; matrici regolari e singolari; teorema: se una matrice e` regolare anche le sue righe sono indipendenti; se una matrice ha inversa destra ha anche quella sinistra e le due inverse coincidono; esistenza dell'inversa per le matrici regolari. Alcune matrici notevoli e loro invertibilità: matrici di spostamento di una riga o una colonna e di permutazione. Cenni all'algoritmo di Gauss in forma matriciale (fattorizzazione). DETERMINANTI. Proprieta` fondamentali dei determinanti, visti come funzione delle colonne: linearita` rispetto ad una singola colonna, valore sulla matrice unitaria, alternanza. Determinanti di matrici con colonne uguali o con colonne dipendenti. Il determinante non varia sommando ad una colonna una combinazione delle altre. Determinante della trasposta (solo enunciato) e proprieta` analoghe per le righe. Il determinante non nullo equivale all'indipendenza delle colonne. Formula risolutiva di Cramer per i sistemi non singolari. Matrici quadrate estratte e calcolo del rango come dimensione massima di una matrice estratta non singolare. Sviluppo di Laplace secondo gli elementi di una riga o di una colonna (solo enunciato): complementi algebrici. Espressione della matrice inversa con i complementi algebrici. Valutazione della complessità di calcolo del determinante per ricorsione con la regola di Laplace. Segno di una permutazione e definizione del determinante (senza la verifica delle proprieta` assiomatiche). Calcolo veloce dei determinanti 2x2 e 3x3. Teorema di Binet sul determinante del prodotto (senza dimostrazione). Determinanti di matrici a blocchi diagonali (senza dimostrazione). Determinanti di matrici diagonali e triangolari: calcolo del determinante mediante l'algoritmo di Gauss. CAMBI DI BASE. Matrice associata ad un cambio di base ed a quello inverso. Formule di trasformazione delle coordinate relative a due basi in funzione della matrice di cambio di base. Formula di trasformazione della matrice associata ad un'applicazione lineare e a due basi assegnate al variare di tali basi, in termini delle relative matrici di cambio di base. Il caso di un'applicazione lineare da uno spazio in sè, rispetto alla stessa base. DIAGONALIZZAZIONE. Operatore da uno spazio in sè, diagonale rispetto ad una base. Operatore diagonalizzabile da uno spazio in sè. Autovalori, autovettori, autospazio relativo ad un autovalore, spettro. Gli autospazi sono sottospazi. Condizione necessaria e sufficiente per la diagonalizzabiltà: esistenza di basi spettrali. Esempio di operatore lineare diagonalizzabile su C ma non su R, e di operatore non diagonalizzabile su C. Indipendenza di autovettori in autospazi distinti; le somme di autospazi sono dirette (facoltativo). Il teorema fondamentale dell'Algebra, di Gauss (solo enunciato, la dimostrazione fa parte del programma di analisi II): esistenza di radici e della fattorizzazione in fattori di primo grado in C per ogni polinomio complesso di grado non nullo. Teorema di esistenza degli autovettori per gli spazi complessi di dimensione finita non nulla (teorema degli spazi invarianti). Equazione e polinomio caratteristici. Invarianza del polinomio caratteristico per cambio di base; se una matrice è diagonalizzabile il suo determinante è il prodotto degli autovalori. La dimensione dell'autospazio relativo ad un autovalore è non maggiore della molteplicità dell'autovalore come radice del polinomio caratteristico. Diagonalizzabilità di matrici con autovalori tutti semplici; diagonalizza-bilità come conseguenza dell'uguaglianza della dimensione dell'autospazio e della molteplicità algebrica di ogni autovalore multiplo(solo enunciato). TEORIA SPETTRALE PER OPERATORI AUTOAGGIUNTI. Operatori autoaggiunti in uno spazio euclideo complesso: lo spettro è reale; il complemento ortogonale di un autovettore è invariante; autovettori in autospazi distinti sono ortogonali. Teorema spettrale per operatori autoaggiunti in uno spazio complesso di dimensione finita non nulla. Condizione necessaria e sufficiente sulla matrice associata ad una qualunque base ortonormale perche' un operatore sia autoaggiunto; la condizione nel caso di matrici reali: simmetria. Parte reale e immaginaria di un vettore di Cn. Condizioni sulla parte reale e immaginaria di un vettore complesso ortogonale ad uno reale. Esistenza di autovettori reali per operatori reali autoaggiunti definiti su Cn. Il teorema di esistenza di una base spettrale ortonormale e reale per una matrice simmetrica reale (diagonalizzazione di matrici reali simmetriche). IL SEGNO DELLE FORME QUADRATICHE. Il problema, ed il caso diagonale. Forme bilineari e quadratiche astratte. Esistenza ed unicità della forma bilineare simmetrica associata ad una forma quadratica arbitraria. Forme bilineari su uno spazio euclideo reale: matrice associata. Operatore lineare associato ad una forma bilineare e ad una base ortonormale, definito dalla stessa matrice. Diagonalizzabilità della forma e dell'operatore associato: studio del segno della forma a partire da quello degli autovalori dell'operatore definito dalla stessa matrice. Studio del segno e classificazione delle forme quadratiche su Rn: definite positive, definite negative, semidefinite positive, semidefinite negative, indefinite, a partire dallo studio del segno degli autovalori della matrice simmetrica associata, senza calcolarli: regola dei segni di Cartesio (solo enunciato) applicata al polinomio caratteristico in ognuno dei cinque casi e il metodo alternativo (solo enunciato): applicazione del teorema di Sylvester e dell'algoritmo di Gauss-Jordan in modo da preservare la simmetria, applicando alle colonne le stesse operazioni applicate alle righe, sino ad una forma diagonale che ha la stessa distribuzione di segni e zeri di quella degli autovalori. ----------------------------------------- ANALISI MATEMATICA (II) TOPOLOGIA. punti interni, esterni, di frontiera. Punti isolati e punti d'accumulazione. Insiemi aperti, chiusi, ne' aperti ne' chiusi, limitati, convessi. Chiusura di un insieme. LIMITI E CONTINUITA`. Stima della norma con i moduli delle componenti. Successioni convergenti. Successioni divergenti e divergenza della norma. Successioni oscillanti. I punti d'accumulazione sono limiti di successioni di punti distinti dell'insieme. Continuità di funzioni da Rn a Rm: il caso particolare delle curve e delle superficie parametriche. Il limite finito in un punto di funzioni vettoriali. Continuita` e convergenza di funzioni vettoriali sono equivalenti a quelle delle loro componenti scalari. Esempi di teoremi noti per le funzioni scalari che si estendono immediatamente a quelle vettoriali: il teorema della permanenza del segno per le funzioni continue scalari di variabile vettoriale; il limite della somma di due funzioni vettoriali convergenti. Il cambio di variabile nel calcolo dei limiti: contresempio nel caso generale e condizioni di validita`: funzione esterna continua o non definita (solo enunciato). Continuita` di funzioni composte. Insiemi connessi (per archi) e teorema di esistenza degli zeri per le funzioni continue sui connessi. Teorema di Weierstrass sull'esistenza dei punti estremi per le funzioni continue sui chiusi limitati (solo enunciato): definizione di compatto come chiuso e limitato. Funzioni scalari e vettoriali divergenti, al finito e all'infinito. Funzioni oscillanti. Esempio di polinomio reale oscillante all'infinito (p(x,y)=x). Divergenza dei polinomi complessi non costanti all'infinito. Le funzioni reali continue divergenti all'infinito hanno minimo globale. Il teorema fondamentale dell'algebra (di Gauss): ogni polinomio complesso non costante ha zeri complessi. Il problema delle funzioni implicite e il teorema di Ulisse Dini in ipotesi di continuità globale e di stretta monotonia rispetto ad una variabile. Esame dettagliato per f(x,y)=x^2+y^2-1. CALCOLO DIFFERENZIALE. Derivate direzionali e parziali: definizione, calcolo e notazione. Punti estremi: massimi e minimi locali e globali. Teorema di Fermat sull'annullarsi delle derivate direzionali in ogni punto di estremo locale interno nel quale esse esistano: condizione necessaria per un estremo locale interno. Esempi di funzioni che hanno derivate parziali ma non le altre derivate direzionali, e di una funzione discontinua in (0,0) le cui derivate in ogni direzione sono nulle in (0,0). Funzioni (positivamente) omogenee. Continuità delle proiezioni su un asse coordinato, delle funzioni lineari e dei polinomi. Le funzioni 0-omogenee in (0,0) non costanti non convergono. Differenziale. Unicità del differenziale. Le funzioni differenziabili sono continue. Legame fra derivate direzionali di una funzione differenziabile ed il suo differenziale. La struttura (formula) del differenziale, scalare e vettoriale (prodotto scalare del gradiente per l'incremento) per le funzioni scalari di variabili vettoriali. Differenziali delle funzioni lineari: il caso particolare delle proiezioni della variabile vettoriale sugli assi coordinati e formula classica del differenziale(dF=somma Fxi dxi). Struttura del differenziale per funzioni scalari e vettoriali di variabili scalari: differenziabilità ed esistenza della derivata. Struttura del differenziale per funzioni vettoriali di variabile vettoriale: la matrice jacobiana. Il teorema sul differenziale delle funzioni composte (solo enunciato) e applicazione al calcolo delle derivate di composizioni di funzioni: il teorema classico per le funzioni di una sola variabile, ed il caso della composizione di una funzione di n variabili con una curva in Rn. Differenziabilità di funzioni di classe C1 ("teorema del differenziale totale"). Equazione delle curve di livello. Direzione di massima pendenza per una funzione differenziabile. Funzioni tangenti in un punto. Piano tangente e vettore normale al grafico di una funzione differenziabile. Derivate successive e matrice hessiana. Teorema di Schwarz (solo enunciato) e simmetria della matrice hessiana. Formula di Taylor (solo enunciato) con le due forme del polinomio di Taylor ("estesa" e "ridotta") e del resto (di tipo "Peano" e "Lagrange"). Applicazioni: condizioni sufficienti per un estremo locale e per un punto di sella: segno degli autovalori e caso della forma hessiana definita o indefinita. Il caso delle hessiane semidefinite: contresempi. Il teorema sulle funzioni implicite (Dini), nel caso delle funzioni di classe C1: formula della derivata della funzione esplicita ("formula risolutiva"). Introduzione ai massimi e minmi vincolati: il caso della rappresentazione cartesiana e parametrica del vincolo. Il vincolo in forma implicita: il moltiplicatore di Lagrange nel caso di una funzione di due variabili e di un unico vincolo del tipo g(x,y)=0. Il caso generale: i moltiplicatori di Lagrange nel caso dei vincoli espressi da più equazioni (solo enunciato). Cenno al significato fisico dei moltiplicatori: le reazioni vincolari. Il teorema delle funzioni implicite nel caso dei sistemi di più equazioni: condizione sullo jacobiano (solo enunciato). Teorema di invertibilità locale (solo enunciato). CAMPI VETTORIALI E FORME DIFFERENZIALI. Introduzione al problema delle primitive: funzioni con derivate identicamente nulle e contresempi nel caso di insiemi sconnessi. Le funzioni con gradiente identicamente nullo su un aperto connesso sono costanti. Campi vettoriali e forme differenziali lineari di classe Ck: campo associato ad una forma e forma associata ad un campo. Le due forme del problema della primitiva: campi integrabili o potenziali e forme integrabili o esatte. Integrale di un campo su una curva continua. Condizione necessaria di integrabilità: indipendenza dell'integrale dal cammino e differenza di potenziale. La condizione di integrabilità sulle curve chiuse. La condizione necessaria di integrabilità di campi e forme C1, sulle derivate delle componenti (condizione del rotore). Campi irrotazionali e forme chiuse. Esempio di campo irrotazionale non integrabile. Congiunzione di curve e additività dell'integrale. Cammini opposti e valore dell'integrale sul cammino opposto. La condizione necessaria e sufficiente di integrabilità per campi C0: l'invarianza rispetto al cammino (teorema di Torricelli in più variabili). Costruzione della primitiva per integazione su cammini particolari: segmenti, spezzate con lati paralleli agli assi, spezzate di curve notevoli. Invarianza dell'integrale di un campo per cambio dei parametri. Condizione necessaria e sufficiente di integrabilità: l'integrale del campo sulle curve chiuse si annulla. Omotopia o deformazione di curve aventi gli stessi estremi o di curve chiuse. Invarianza per omotopia dell'integrale di un campo irrotazionale (solo enunciato). Insiemi semplicemente connessi e integrabilità dei campi irrotazionali sugli insiemi semplicemente connessi. Gli insiemi convessi e gli insiemi stella sono semplicemente connessi. Calcolo di potenziali locali del campo irrotazionale non (globalmente) integrabile sul proprio dominio massimale, ( y/(x^2+y^2) , -x/(x^2+y^2) ) sul piano tagliato lungo una semiretta uscente dall'origine: prolungamento di potenziali locali. Il significato geometrico del potenziale locale del campo (y/(x^2+y^2) , -x/(x^2+y^2)) : "il differenziale dell'angolo". Discussione qualitativa sull'integrabilità dei campi irrotazionali sul complementare di un numero finito dei punti: la condizione di integrabilità basata sull'annullarsi degli integrali estesi ad altrettante curve che circondano ognuna una sola delle singolarità (solo enunciato). CURVE E LUNGHEZZA. Poligonali inscritte in una curva parametrica, rettificabilità e lunghezza della curva rettificabile. Esempio di una curva di classe C0 non rettificabile. Vettore e retta tangente. Il problema della rappresentazione cartesiana delle curve parametriche: eliminazione del parametro. Esempio di curva derivabile che non è, nell'intorno di un punto del suo sostegno, grafico di una funzione derivabile. Curve regolari (derivata mai nulla) e rappresentazione (locale) cartesiana. L'integrale per funzioni vettoriali. Contresempio alla proprietà della media (elica cilindrica). Stima della norma dell'integrale con l'integrale della norma. Teorema di rettificabilità delle curve C1. Formula della lunghezza di curve C1 (o C1 a tratti) (solo enunciato). Ascissa curvilinea. Integrale curvilineo di una funzione definita sul sostegno di una curva C1. Invarianza della lunghezza e dell'integrale curvilineo per cambio (strettamente monotono) della scala del parametro. L'equazione differenziale del cambio di scala che rende il modulo della velocità costante. Lunghezza di curve in coordinate polari piane, cilindriche; lunghezza in coordinate sferiche (solo enunciato). TEORIA DELLA MISURA E DELL'INTEGRAZIONE (solo enunciati). Elementi della teoria della misura e dell'integrazione secondo Lebesgue: misura di intervalli, plurintervalli, aperti, chiusi; misura esterna ed interna di un insieme arbitrario: misurabilità e misura di Lebesgue di un insieme limitato; proprietà: monotonia, additività numerabile su insiemi disgiunti, subadditività numerabile, continuità verso l'alto e verso il basso. Numerabilità e misura dei razionali. Misura di insiemi non limitati. Integrabilita` secondo Lebesgue di funzioni limitate su insiemi di misura finita, di funzioni positive su insiemi di misura finita, di funzioni positive su insiemi arbitrari. Parte positiva e negativa: integrabilita` di funzioni di segno variabile e integrabilita` del modulo. Proprieta` dell'integrale: linearita`, additivita` e positivita`. Funzioni misurabili e teorema (con dimostrazione) di integrabilita` delle funzioni misurabili e limitate su insiemi misurabili di misura finita. I teoremi di Beppo Levi e di Lebesgue di passaggio al limite sotto il segno d'integrale. Derivazione sotto il segno d'integrale. Teoremi di Fubini e Tonelli sugli integrali iterati: calcolo degli integrali doppi per decomposizione in domini normali. Teorema del cambio di variabile: il caso delle coordinate polari piane. SUPERFICIE PARAMETRICHE (solo enunciati). Superficie parametriche: vettori tangenti, vettore normale, piano tangente in forma parametrica e cartesiana, formula dell'area. Rappresentazione parametrica della sfera (coordinate sferiche) e calcolo del vettore normale e dell'area.