schade, na dann weiter auf Fehlersuche Danke
du musst die klammern aber auch mit nehmen.
schade, na dann weiter auf Fehlersuche Danke
du musst die klammern aber auch mit nehmen.
ja klar, hatte ich auch. Steht ja recht unmissverständlich dort was man kopieren muss, eigentlich. Hatte nur gefragt weils nicht geklappt hat, da war ich mir dann nicht mehr ganz sicher
ja klar, hatte ich auch. Steht ja recht unmissverständlich dort was man kopieren muss, eigentlich. Hatte nur gefragt weils nicht geklappt hat, da war ich mir dann nicht mehr ganz sicher
Hast du auch drauf geachtet dass du das richtige Amazon nimmst? Also wirklich Amazon Drive und nicht die s3 Server?
jup. habe ich. Hatte es ja unter Windoof schon am laufen, da klappt alles mit rclone, aber jetzt auf dem PI wills ums verrecken nicht.
jup. habe ich. Hatte es ja unter Windoof schon am laufen, da klappt alles mit rclone, aber jetzt auf dem PI wills ums verrecken nicht.
Jetzt kommts...hast denn auf dem Pi auch die ARM Version installiert? Ich will dich nicht für blöd verkaufen das sind nur so kleine Flüchtigkeitsfehler...
Das musst du mir mal im Detail erklären, ich hab meine rclone config nie gespeichert und konnte auf verschiedenen Systemen wenn ich die gleichen Passwörter genutzt habe (unverschlüsselt also beim neuen anlegen des crypt/encrypt) immer auf meine Files zugreifen, sie wiedergeben und auch verschieben etc.
Scheint zu stimmen. Ich hatte mal Probleme die Sachen nur mit dem PW zu mounten. Beim googeln der Fehlermeldung las ich den von mir gebrachten Hinweis die config zu kopieren.
Jetzt kommts...hast denn auf dem Pi auch die ARM Version installiert? Ich will dich nicht für blöd verkaufen das sind nur so kleine Flüchtigkeitsfehler...
Kein Problem Aber ja habe ich, die 32 Bit ARM Version
Mein Fazit zu Plexdrive : es ist die Rettung für Emby und somit vermutlich auch für Plex... keine Api Banns mehr selbst wenn man ne riesige Bibliothek von null neu scannt (mit Datei öffnen um Codec auszulesen etc.) bin schwer begeistert...scannen dauert zwar was länger aber damit kann man wohl leben.
jup. habe ich. Hatte es ja unter Windoof schon am laufen, da klappt alles mit rclone, aber jetzt auf dem PI wills ums verrecken nicht.
Nimm doch das config-File von Windows, du kannst es auf dem Pi mit Rclone auch benutzen, du muss es nicht neu erzeugen.
Also. Google Drive mit plexdrive angebunden. Rclone crypt auf das lokale Laufwerk. Das dann an plex weiter geben führt zum unlimited plex System x)))
@Nevrion
Ich kam auch eigentlich nur wieder auf das Thema, weil wir hier in Altenessen gestern die Mutter aller Stromausfälle hatten mit einem gewaltigen Kurzschluss danach. Das haben meine zwei Platten nicht sonderlich gut vertragen, von den vielen kaputten Netzteilen mal ganz zu schweigen.
Ich wohn dann wohl auf deinem Parkplatz Essener sagen ja gern das Bottrop der Parkplatz von Essen ist
Falls du bei dir öfter mit Spannungsschwankungen oder Ausfällen zu kämpfen hast ist für deine Geräte eine USV nie verkehrt. Guck dir mal USVs von BlueWalker an. Die haben auch kleinere Varianten für den Hausgebrauch und gar nicht mehr so teuer.
Wozu noch heimserver? Ich sehe da 2017 mit diesen Angeboten kaum noch einen Grund zuhause zu hosten.
Falls du bei dir öfter mit Spannungsschwankungen oder Ausfällen zu kämpfen hast
äh nein, eigentlich nicht. Aber letzten Freitag hat ein Schiff im Rhein-Herne-Kanal ein Hochspannungskabel abgerissen, mit seinem Kran, die beiden KAbelenden sind im Wasser gelandet und irgendwie hat das Umspannwerk das wohl nicht so gut vertragen und es gab den großen Knall. Sonst keine Probleme
@Brandon_Heat ja so hab ich das am WE dann auch gelöst. RClone ist da zum Glück extrem pflegeleicht
Ich sehe da 2017 mit diesen Angeboten kaum noch einen Grund zuhause zu hosten.
Ja und nein. Bei mir schwingt die Angst mit, dass die Hoster plötzlich sagen dass der Dienst eingestellt wird. 100TB wie bei Amazon für 70€ rechnet sich für die nicht. Ich arbeite ja in einem RZ und wir bieten auch Cloudlösungen an. Hab mal nachgefragt was dass denn bei uns kostet und wir nehmen von unseren Kunden pro 1TB mehrere hundert Euro, und es rechnet sich trotzdem kaum. ok, deutsche Standorte sind immer was teurer, aber trotzdem.
Daher meine Sorge, dass wenn zu viele Leute eben auf diese Lösung umsteigen und anfangen X TB hoch zu laden, wird Amazon (Google bestimmt auch) irgendwann sagen: Jetzt ist Schluss. Und dann sind alle Daten im schlimmsten Fall weg. Daher ist das schon mit ein bisschen Vorsicht zu genießen, ohne jetzt den alten Pessimisten raushängen lassen zu wollen
Und wenn ein Bagger mal wieder die Telefonleitung kappt dann stehste quasi "im dunkeln"
Ohne Internet, nix zu gucken.
Cloud Hosting für die eigene Mediensammlung ist ja ganz nett, aber bleibe dann doch lieber bei meinem unRaid Monster in der Abstellkammer.
Aber das ist nunmal Ansichtssache.
Eines ist auf jeden Fall klar, mit der Cloudlösung wird man auf die Dauer und auf TB gerechnet günstiger fahren, da man sich weder um den Strom noch um neue Hardware kümmern muss.
Und wenn ein Bagger mal wieder die Telefonleitung kappt dann stehste quasi "im dunkeln"
Ohne Internet, nix zu gucken.Cloud Hosting für die eigene Mediensammlung ist ja ganz nett, aber bleibe dann doch lieber bei meinem unRaid Monster in der Abstellkammer.
Aber das ist nunmal Ansichtssache.Eines ist auf jeden Fall klar, mit der Cloudlösung wird man auf die Dauer und auf TB gerechnet günstiger fahren, da man sich weder um den Strom noch um neue Hardware kümmern muss.
Deswegen behalte ich meine Lieblingstitel auch Lokal
Wenn ich mir überlege wie viele meiner Blurays ich dank der Cloudlösung nun digialisiert habe im Vergleich zu vorher einfach weil mir einfach die zusätzlichen Festplatten zu teuer wurden ist es mir die Cloud + Backup eigentlich wert, der Falschenhals bei mir ist nur der Upload von nur 10Mbit, das ist echt belastend
Als Backup wäre es für mich auch noch eine ganz nette Angelegenheit.
Seien wir ganz ehrlich, schlägt hier der Blitz ein dann ist die Mühsam aufgebaute Sammlung hinüber.
Als Backup wäre es für mich auch noch eine ganz nette Angelegenheit.
Seien wir ganz ehrlich, schlägt hier der Blitz ein dann ist die Mühsam aufgebaute Sammlung hinüber.
jap und auch jede Menge Kleingeld für die Datengräber
Ich muss mich wohl doch noch mal durch das Thema hier durchwühlen.
Eigentlich wären die Erkenntnisse die hier gesammelt wurden aber schon ein How-To, Wiki-Eintrag oder Blog Eintrag (wo auch immer wert).
Ist halt immer ein bisschen blöd das die wichtigen Sachen bei so nem langen Post irgendwann in der Masse untergehen.
Als Backup wäre es für mich auch noch eine ganz nette Angelegenheit.
Seien wir ganz ehrlich, schlägt hier der Blitz ein dann ist die Mühsam aufgebaute Sammlung hinüber.
Das treibt auch mich derzeit an, mich damit zu beschäftigen.
endlich hat es auch geklappt, gibt ja doch den einen oder anderen Stolperstein, aber jetzt funktioniert es endlich in einer Testumgebung wie es soll. Hoffe dass ich kommende Woche mit dem hochladen anfangen kann, wenn dann alles auf mein Livesystem umgesetzt habe.
Ich muss mich wohl doch noch mal durch das Thema hier durchwühlen.
Eigentlich wären die Erkenntnisse die hier gesammelt wurden aber schon ein How-To, Wiki-Eintrag oder Blog Eintrag (wo auch immer wert).
Ist halt immer ein bisschen blöd das die wichtigen Sachen bei so nem langen Post irgendwann in der Masse untergehen.
Ich sehe da bei dem Tutorial halt bedenken was die Sicherheit der Systeme angeht...wenn jetzt jeder auf biegen und brechen versucht das zum laufen zu bekommen sehe ich noch mehr potentiell gefährdete Systeme im Netz...außerdem wollt ich @Lukesky85 da nicht die Ehre nehmen weil er mich letztendlich überhaupt auf die Idee gebracht hat ich hab das nur mal so halb ohne irgendwelche Befehle zusammengefasst : https://www.project-shield.de/fast-ein-tutor…i-in-der-cloud/
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!