Willkommen auf myCSharp.de! Anmelden | kostenlos registrieren
 | Suche | FAQ

Hauptmenü
myCSharp.de
» Startseite
» Forum
» Suche
» Regeln
» Wie poste ich richtig?

Mitglieder
» Liste / Suche
» Wer ist online?

Ressourcen
» FAQ
» Artikel
» C#-Snippets
» Jobbörse
» Microsoft Docs

Team
» Kontakt
» Cookies
» Spenden
» Datenschutz
» Impressum

  • »
  • Community
  • |
  • Diskussionsforum
Datenupload zur Azure cloud
desaster
myCSharp.de - Member



Dabei seit:
Beiträge: 5

Themenstarter:

Datenupload zur Azure cloud

beantworten | zitieren | melden

Hallo,

ich weiß nicht, ob ich es in das richtige Unterforum gepostet habe. Wenn nicht, bitte einfach verschieben.

Bei meiner aktuellen Anwendung muss ich auch große Datenmengen (GBytes) in die Cloud laden. Ich überlege jetzt gerade, was die beste Variante wäre, eher viele kleinere Dateien (z.B. 32 MB?) oder in möglichst großen Dateien (z.B. 2 GByte)?

Gibt es die Möglichkeit, dass ein unterbrochener Upload (z.B. PC hat neu gestartet) wieder an der letzten Stelle fortgeführt werden kann? Wenn nicht, müsste ich die gesamte Datei neu übertragen.

Besten Dank.
private Nachricht | Beiträge des Benutzers
Abt
myCSharp.de - Team

Avatar #avatar-4119.png


Dabei seit:
Beiträge: 15.764

beantworten | zitieren | melden

Kommt drauf an, welchen Service Du verwendest und was Du am Ende tun willst:
Tables, Blobs, Disks...ist aber an jedem Service gut dokumentiert, für welche Use Cases und welche Features supported werden.
Aber alle Services bieten Streamed-Uploads bzw. Chunks.

Daher: kann man so nicht pauschal beantworten. Geht alles.
Les es durch und evaluier, was zu Deinem Zweck passt.
private Nachricht | Beiträge des Benutzers
desaster
myCSharp.de - Member



Dabei seit:
Beiträge: 5

Themenstarter:

beantworten | zitieren | melden

Mein erster Gedanke war ein Upload via Blobs.
private Nachricht | Beiträge des Benutzers
Papst
myCSharp.de - Experte



Dabei seit:
Beiträge: 420
Herkunft: Kassel

beantworten | zitieren | melden

Das wird du berechnen müssen, was da am besten für dich ist.

Bei Blobs kostet dich der Traffic nichts (eingehend in Azure), wohl aber die Anzahl an Requests.
Blob Storage bietet dabei z.B. AppendBlobs an, die du in beliebigen Größen immer wieder erweitern kannst (Ich habe das allerdings bisher nur mit Text Formaten gemacht - wüsste aber nicht, was gegen Binärformate sprechen sollte). Du musst allerdings mehrere Requests machen um etwas anzufügen (Properties lesen, Lease erstellen, Upload, ggf. Lease erneuern, Lease entfernen)
BlockBlobs kannst du als Chunk hochladen - hier wäre vermutlich aber der Blob weg, wenn du den PC neustartest.

Prinzipiell kann man da leider nur sagen: Kommt auf deine Anforderungen an.
private Nachricht | Beiträge des Benutzers
desaster
myCSharp.de - Member



Dabei seit:
Beiträge: 5

Themenstarter:

beantworten | zitieren | melden

Vielen Dank für eure Infos. Werde jetzt erst einmal die Internetseiten durchforsten. Habe schon ein paar Verweise auf die DataMovement (https://github.com/Azure/azure-storage-net-data-movement) Library gefunden. Das werde ich mir mal anschauen.
private Nachricht | Beiträge des Benutzers