Sia

e

( i limiti esistono finiti o infiniti perchè f è debolmente crescente. Il ragionamento che segue è stato pensato nel caso in cui i limiti siano finiti. Andrà adattato nel caso in cui uno o entrambi i limiti siano infiniti)

perchè

ovvero f debolmente crescente.
Supponiamo

La funzione assume valori più piccoli di

. Perchè? Perchè f(x) è definita in un intorno sinistro di

(esiste

) unitamente al fatto che la funzione è debolmente crescente.
In modo analogo la funzione assume valori più grandi di

Quindi se la funzione assume valori più piccoli di

e più grandi di

, poichè per ipotesi la sua immagine è un intervallo, allora dovrà assumere tutti i valori in

(passatemi l'informalità del qualcosina) e in particolare l'intervallino

è contenuto nell'immagine della funzione (anzi azzarderei dicendo che l'intervallo
![[l_1, l_2] [l_1, l_2]](latexrender/pictures/e3494504393ff36eab7069522eaa45e9.png)
è contenuto nell'immagine della funzione .
In questo intervallino l'unico valore che può essere preso è

. Pertanto l'intervallo
![[l_1, l_2] [l_1, l_2]](latexrender/pictures/e3494504393ff36eab7069522eaa45e9.png)
concide con {

} e dunque

, ovvero l'assurdo avendo ipotizzato

.
Il probelma è che non riesco a formalizzare il fatto che l' intervallino contiene solo il valore di

.
suggerimenti?
Grazie
EDIT: correzioni codice latex