Integralbeweis

01/06/2009 - 12:10 von Markus Wichmann | Report spam
Hi all,

ich habe momentan folgende Aufgabe zu lösen:

Zeigen Sie, dass für eine periodische, integrierbare Funktion f: R -> R
mit f(x + T) = f(x) gilt:

a+T T
∀ a ∊ R: ∫ f(x) dx = ∫ f(x) dx
a 0

Mein Ansatz ist folgender:

Zunàchst einmal existiert eine Funktion f₁(x), sodass

∃ c ∊ R: f(x) = f₁(x) + c (*)

sowie

a+T
∀ a ∊ R: ∫ f₁(x) dx = 0
a

Im Klartext: Man kann den Graphen der Funktion so verschieben, dass sich
die Flàchen oberhalb und unterhalb der x-Achse gleichen.

Dann existiert eine Stammfunktion F mit

F(x) = F₁(x) + F₂(x) (**)

Dabei ist F₁ periodisch mit Periode T und F₂ linear. Dieses ist logisch,
denn wenn man (*) integriert, kommt man bei

F(x) = F₁(x) + cx + C

heraus. Mit

F₂(x) = cx + C

wird daraus das gleiche wie (**).

F₁ hat die Periode T:

F₁(x + T) = F₁(x)
F₁(x + T) - F₁(x) = 0

x+T
∫ f₁(x) dx = 0
x

Und das war ja die Anforderung an f₁.

Zurück zur eigentlichen Aussage: Mithilfe von F(x) formuliert, sieht sie
so aus:

F(a+T) - F(a) = F(T) - F(0)

Setzt man (**) ein, dann gilt:

F₁(a+T) + c(a+T) + C - F₁(a) - ca - C = F₁(T) + cT + C - F₁(0) - C

Aus F₁(a+T) = F₁(a) folgt:

ca + cT - ca = cT
cT = cT

Dies ist eine Tautologie. Somit ist die Behauptung gezeigt.

Ich habe keine Lücken entdecken können. Könnt ihr welche finden?

Tschö,
Markus

GUI - ein Hintergrundbild und zwölf XTerms

vim -c "exec \"norm iwHFG#NABGURE#IVZ#UNPXRE\"|%s/#/ /g|norm g??g~~"
 

Lesen sie die antworten

#1 Ulrich Lange
01/06/2009 - 15:01 | Warnen spam
Markus Wichmann schrieb:
Hi all,

ich habe momentan folgende Aufgabe zu lösen:

Zeigen Sie, dass für eine periodische, integrierbare Funktion f: R -> R
mit f(x + T) = f(x) gilt:

a+T T
∀ a ∊ R: ∫ f(x) dx = ∫ f(x) dx
a 0

Mein Ansatz ist folgender [..]:



Hallo Markus,

das geht wesentlich einfacher. Nimm O.B.d.A. a > 0 an (a<0 geht analog).
Einerseits gilt dann (einfach den Integrationsbereich aufteilen):

int(f(x),x=0..a+T) = int(f(x),x=0..T) + int(f(x),x=T..a+T)

andererseits:

int(f(x),x=0..a+T) = int(f(x),x=0..a) + int(f(x),x=a..a+T)

Substrahiert man diese beiden Gleichungen, folgt:

int(f(x),x=a..a+T) - int(f(x),x=0..T)
= int(f(x),x=T..a+T) - int(f(x),x=0..a)

Auf das erste Integral auf der rechten Seite wendet man nun die
Substitution y=x-T an und erhàlt:

int(f(x),x=a..a+T) - int(f(x),x=0..T)
= int(f(y+T),y=0..a) - int(f(x),x=0..a)

Ob die Integrationsvariable x oder y heißt ist wurscht, man kann die
beiden Integrale auf der rechten Seite also zusammenfassen so

int(f(x),x=a..a+T) - int(f(x),x=0..T)
= int(f(x+T)-f(x),x=0...a)

Aus der Voraussetzung f(x+T)=f(x) folgt also

int(f(x),x=a..a+T) - int(f(x),x=0..T)
= 0

d.h. die Behauptung.

Gruß, Ulrich Lange

(ulrich punkt lange bindestrich mainz at t-online punkt de)

Ähnliche fragen