Laden...

Bei GetResponse (503) Server nicht verfügbar

Erstellt von samstag vor 15 Jahren Letzter Beitrag vor 14 Jahren 5.861 Views
S
samstag Themenstarter:in
2 Beiträge seit 2009
vor 15 Jahren
Bei GetResponse (503) Server nicht verfügbar

Hallo,

ich holle mir von meine Seite immer den HTML CODE


HttpWebRequest httpWebRequest = (HttpWebRequest)HttpWebRequest.Create(url);


                

                WebRequest webRequest = (WebRequest)httpWebRequest;
                WebResponse webResponse = webRequest.GetResponse();
                StreamReader sr = new StreamReader(webResponse.GetResponseStream());


aber ab **heute bekomme ich immer die Fehlermeldung
**
Der Remoteserver hat einen Fehler zurückgegeben: (503) Server nicht verfügbar.

Die gleiche Seite kann ich aber über Firefox aufrufen, wie kann das sein?

Wie kann ich das Problem lösen?

270 Beiträge seit 2005
vor 15 Jahren

Hallo Samstag,

evtl. mal die Proxy/Gateway einstellungen geprüft?

mfg Hulk

S
samstag Themenstarter:in
2 Beiträge seit 2009
vor 15 Jahren

Seit heute gibt es dieses Problem nicht mehr und es gab keine Änderungen von meine Seite.

B
293 Beiträge seit 2008
vor 15 Jahren

Dann würd' ich doch mal glatt behaupten, dass der Server vielleicht einfach mal wirklich nciht erreichbar war... 😁

Wenn ich nicht hier bin, findest du mich auf code-bude.net.

T
13 Beiträge seit 2008
vor 15 Jahren

Oder der Server war gestern nicht der schnellste und dein webRequest produzierte einen Timeout.

über

httpWebRequest.Timeout

kannst du den Timout festlegen und schaun ob es möglicherweiße daran lag.

U
104 Beiträge seit 2009
vor 14 Jahren

Hallo, heute habe ich wieder diesen Fehler.

Wenn ich aber die Seite mit IE aufrufe, kann ich diese ohne Probleme laden.

sehr merkwürdig...

Wo ist der Unterschied zwischen GetResponse und IE.navigate() ?

2.891 Beiträge seit 2004
vor 14 Jahren

Wo ist der Unterschied zwischen GetResponse und IE.navigate() ?

Dass z.B. Cookies mitgeschickt werden (falls für die Seite vorhanden).
Zeigt der WebClient das gleiche Verhalten? Evtl. auch mal den WebClient mit HTTP-POST- und Cookie-Unterstützung ausprobieren.

Gruß,
dN!3L

U
104 Beiträge seit 2009
vor 14 Jahren

myWebClient.DownloadFile(url, fileName);

Das gleiche Problem.

2.891 Beiträge seit 2004
vor 14 Jahren

Hallo HL2002,

manche Webseiten mögen es auch nicht, wenn man sie ohne Angabe eines User-Agents abruft (oder einen Referer, etc.).
Mit z.B. dem Firefox-AddIn Live HTTP Headers kannst du dir anzeigen lassen, was der Browser alles an die Webseite schickt. Mit der Funktion "Wiederholen" kannst du dann den Request nochmal abschicken und die HTTP-Header bearbeiten. So einfach mal gucken, was die Seite alles für Header braucht, und dann entsprechend die Properties im HttpRequest füllen.

Beste Grüße,
dN!3L

U
104 Beiträge seit 2009
vor 14 Jahren

Moin dN!3L, das ist DIE LÖSUNG. Dankeschön. Ich habe das garnicht gewußt.

Warum wollen das einigen Seiten nicht? Gibt es dafür eine Erklärung?

2.891 Beiträge seit 2004
vor 14 Jahren

Warum wollen das einigen Seiten nicht? Gibt es dafür eine Erklärung?

Naja, z.B. als kleine Hürde für Bots und Scripts 😉

U
104 Beiträge seit 2009
vor 14 Jahren

myHttpWebRequest.UserAgent = ".Bla Bla Bla";

Das soll eine Hürde sein 😉 ?

Für mich schon 😉

Aber nun weis ich beschein, dankeschön.