Beiträge von kalle-del-haye

    Dein Gehäuse ist für ein ATX NT, du wählst aber ein TFX NT aus?!


    Ich zitier mich einfach zu gern selbst:

    Wenn's da ist wird erstmal etwas umgebaut und das Gehäuse den Bedürfnissen angepasst.
    Von der Stange gibt's ja irgendwie nie was richtig passendes!


    Am Ende sollen da 8 HDD's reinpassen - da bleibt nur Platz für ein TFX Netzteil.

    Ich bin sehr gespannt ob alles so passt wie gedacht.

    Hier steht was von:

    Dein hier geht nicht aber vielleicht meinst du das hier.
    Mehr Kapazität und geringere Temperatur ist schon mal super, bin gespannt wie es mit Performance und Preis aussieht.

    Hier mal 'ne Aktualisierung meines Servers:

    Software wird wahrscheinlich ein Debian mit OpenMediaVault und ein btrfs-Raid. (Wenn alles klappt und stabil läuft.)

    Das Gehäuse und Zubehör (Lüfter etc.) sind bestellt!
    Wenn's da ist wird erstmal etwas umgebaut und das Gehäuse den Bedürfnissen angepasst.
    Von der Stange gibt's ja irgendwie nie was richtig passendes!

    ITX? Du meinst TFX

    Jo, meine ich - hab's korrigiert.

    Habe 2 stück seit einem Jahr bei mir drin, super NTs wie ich finde.

    Na da schau her, was'n Zufall. Schön was positives aus erster Hand zu hören. Hast du das SS-250TGW schon mal irgendwo zum Kauf gesehen?

    Wenn man sich überlegt das die 80+ Zertifizierungen erst ab 20% Leistung des Netzteils gemessen werden, und die meisten NT unter 20% auch richtig schlecht sind, verstehe ich nicht das Hersteller keine NT unter 300 Watt anbieten. Bei aktuellen Systemen mit 20W idle Verbrauch läuft selbst ein 300W Netzteil nur auf 7% seiner Leistung und das mit einer Effizienz von weit unter 80%. Ist halt etwas aufwendig und teuer solche kleinen und effizienten Netzteile zu bauen - und wenn das 200W Gold NT teurer ist als ein 500W Gold NT, verkauft sich das wahrscheinlich etwas schlecht.

    Aber die Seasonics gehen ja zumindest schon mal in die richtige Richtung.

    Und? Irgendjemand hier der ein LSI HBA 9211-8i oder 9207-8i verwendet. Oder schon Erfahrungen mit den Controllern hat?

    Ich denke die PicoPSU ist nicht prinzipiell ungeeignet für kleine Server. Das Prinzip die AC/DC- und die DC/DC-Wandlung zu trennen ist Fluch und Segen der Dinger. Die Originale von mini-box.com scheinen schon hochwertig aufgebaut zu sein und erledigen ihre Wandler-Aufgabe sehr gut, sind sehr effizient, werden nicht zu heiß und sind winzig. Aber auch etwas zu teuer, z.B. 45 Euro für das PicoPSU-150-xt finde ich schon ne Ansage.
    Das größte Problem aber ist die Abhängigkeit von dem AC/DC Netzteil. Je nach Leistung, Effizienz oder Stromqualität des 12V Netzteils ist das Gesamtsystem sehr gut oder eben richtig schlecht. Und da ein gutes zu finden scheint sehr schwer zu sein. Und wird richtig teuer! Für eine hochwertige Stromversorgung mit einem PicpPSU kann man dann schon mal mit über 100 Euro rechnen - und das finde ich dann doch zu viel.

    Beim Stöbern durchs Netz bin ich aber über die TG-Serie von Seasonic gestolpert - TFX Netzteile mit 80+ Gold und etwas kleinerer Leistung. Speziell das SS-300TGW oder das SS-250TGW (welches ich noch bei keinem Händler gefunden habe) sehen in meinen Augen gar nicht schlecht aus - klein, keine überflüssige Leistung, effizient und bezahlbar. Kennt die jemand und hat vielleicht schon Erfahrungen mit diesen PSU's gesammelt?

    Um mit dem Thema Netzteil mal voran zu kommen, habe ich mich entschlossen, das System erst einmal mit einem vorläufigen (vorhandenen) Netzteil aufzubauen und den Verbrauch in verschiedenen typischen Situationen zu messen. Wenn ich weiß welche Leistung ich brauche wird noch mal gezielt gesucht!

    Nächster Punkt.

    Gibt es Meinungen zu den LSI HBA's, speziell dem 9211-8i und dem 9207-8i? Man ließt ja viel Gutes über die Teile, und deren OEM-Verwandschaft ist ja recht günstig zu bekommen. Interessant wären Erfahrungen zur Performance, Linux-Kompatibilität und Sachen wie Staggered Spin-Up oder automatischem Spin-Down. Vielleicht ist bei euch ja einer unter Linux im Einsatz.

    Und nochmals: Vielen Dank für eure Hilfe!

    Moin,

    wäre es möglich für meinen Server/NAS auch ein PicoPSU zu verwenden? Hat jemand Erfahrung damit? Oder kennt Gründe die dagegen sprechen?
    Ich würde einen separaten SATA Controller einsetzen (z.B. den HighPoint Rocket 2720SGL) und durch Staggered Spin Up einen zu hohen Anlaufstrom verhindern.

    Wenn ich mal den Stromverbrauch der Komponenten betrachte (habe leider keine genaue Ahnung was die einzelnen Komponenten verbrauchen - hoffentlich stimmt das einigermaßen) ...

    8 x HDD - 40W
    1 x SSD - 3W
    1 x Pentium G3220 - 65W
    2 x 4GB RAM - 5W
    1 x Mainboard - 10W
    6 x Lüfter - 12W
    1 x SATA Controller - 5W
    ------------------------------
    Gesamtverbrauch: 140W

    ... dann müsste doch ein PICOPSU-150-XT mit einem 150W AC-DC Netzteil eigentlich ausreichen. Oder?

    Das externe Netzteil würde mein Platzproblem lösen und wäre im IDLE auch wesentlich effizienter. Der SATA Controller lockert zudem die Ansprüche an das Mainboard und macht die Auswahl größer.

    Männer, erst mal vielen Danke für eure Tipps.
    Bin im Moment sehr viel am lesen - quer durchs Netz. Das ganze Server-Hardware und -Software Thema ist neu für mich und es gibt so viele Möglichkeiten - mir raucht der Schädel.

    Intel MSI und Asrock haben sich bei serie 6 und 7 bewährt. In der c't wurden Intel und MSI mit Serie 8 getestet und kamen sehr gut davon.


    Meinst du den "Leistung ohne Reue" Artikel - habe ich mittlerweile gelesen. Da wird ja das Asrock B85M PRO4 und das Asus H87M-PRO getestet, also eine jeweils etwas "bessere" Variante wie in meiner Auswahl (ASRock B85M-GL -oder- ASUS H87M-E (C2)). Sind ja nicht sooo weit auseinander, in meinen Augen steht hier -etwas weniger Verbrauch- gegen -bessere Ausstattung-. In dem Artikel wird auch erwähnt das beim Asrock das WOL nicht funktioniert hätte, das wäre natürlich ein KO-Kriterium!

    8 GB RAM reicht da nicht für ZFS?

    Für ZFS wird immer Profi Equipment empfohlen.

    Wenn du kannst gibt ne Mark mehr aus, oder du kaufst es in einem Jahr nochmal.....


    ZFS benutzt intensiv den RAM und braucht davon auch ne Menge, man sagt 1GB RAM je 1TB Festplatten-Speicher (gerne auch mehr). Bei der intensiven Nutzung des vielen Speichers ist die Wahrscheinlichkeit das im Speicher ein Fehler entsteht natürlich relativ groß - und der Fehler wird einfach mit auf die Platten geschrieben, ohne das es ZFS merkt. Daher wäre ECC-RAM wohl besser.
    Für ECC braucht man halt ein Server-Board und darauf passt dann nur ein Server-Prozessor. Habe mich mal umgesehen, aber die Preise sind ja schon ne andere Liga. Und wie es eben so ist, warten neben dem neuen Server, noch andere Projekte darauf realisiert zu werden. Serverhardware sprengt mein Budget bei weitem! Leider!

    Aber ZFS ist bei mir ja nicht in Stein gemeißelt. Auch btrfs ließt sich sehr gut - allerdings ist die RAID5/6 Implementierung doch noch recht frisch. Keine Ahnung wie stabil das laufen würde - wahrscheinlich werde ich auch das mal ausprobieren.

    Der Server wird auch nicht wirklich 24/7 laufen, meine Synology läuft im Moment nur Abends und am Wochenende, also im Schnitt ca. 12/7. Die Clients sind maximal 4 auf einmal. MySQL und FTP ist mehr als überschaubar. Server-Hardware wäre da Kanonen auf Spatzen.

    kalle

    Was spricht gegen die?


    Leider habe ich nur begrenzten Stellplatz für den Server und muss auf ein Gehäuse mit geringer Tiefe zurückgreifen. Damit sich Festplatten und Mainboard nicht ins Gehege kommen, muss ich ein Mainboard mit möglichst geringer Tiefe wählen.

    Die Antwort auf die Frage nach energiesparenden Mainboards wird ja sehr oft mit Intel, MSI oder AS Rock beantwortet. Der von mir gefundene Test würde solche generellen Aussagen aber widerlegen - die verschiedenen Hersteller sind beim Energieverbrauch bunt gemischt. Wie aussagekräftig der Vergleichstest ist kann ich nicht wirklich einschätzen - und ähnliche Vergleiche konnte ich noch nicht finden, da die Haswell-Boards wahrscheinlich noch zu neu sind.

    Basierend auf diesen beiden Fakten kommen für mich die beiden Mainboards in Frage:
    ASRock B85M-GL -oder- ASUS H87M-E (C2)

    Da ich auf alle Fälle mal einen Testlauf mit einem ZFS RAID-Z1 machen werde und bei Erfolg auch behalten werde tendiere ich im Moment eher zum ASUS. Hier kann ich durch die zusätzlichen RAM-Slots bei Erweiterung des Servers um weitere Platten parallel den Arbeitsspeicher vergrößern. So wie ich verstanden habe ist die ZFS Performance sehr vom ausreichend großen RAM abhängig.

    kalle

    Mainboard:
    Habe mal etwas gegoogelt und bin auf diesen umfangreichen Vergleich gestoßen: 33 Haswell motherboard group test
    Leider sind sehr viele teure Z87 Boards dabei und nur wenig Günstige. Unter anderem taucht da auch das sehr sparsame MSI B85M-P33 auf - nur leider hat das nur 4 SATA Anschlüsse. Und da ich aus Platzgründen ein eher kleines Gehäuse nutzen werde, muss ich auf die Größe des Mainboards achten (vor allem die Tiefe). Gestolpert bin ich über das ASUS H87M-E - bei den Verbrauchstest immer mit vorn dabei, relativ kompakte Abmessungen, eine völlig ausreichende Ausstattung und einen, sagen wir mal, tolerierbaren Preis.


    Spricht was gegen das Teil?
    "UV" heißt doch Undervolting, oder? Das Asus hat ein recht umfangreiches BIOS, da sollte das also funktionieren. Wenn ich es überhaupt nutzen sollte.

    RAM würde ich 1600er nehmen, sollte preislich recht ähnlich sein.


    Ich dachte der Pentium G3220 unterstützt nur 1333er RAM? Was bringt denn der 1600er für Vorteile?

    kalle

    Na gut. Ich investiere etwas mehr und werde mit etwas geringerem Stromverbrauch belohnt.


    Sieht doch gut aus, oder?
    Wäre dann der stärkste Rechner hier im Haus!?!?. (Abgesehen von der Grafikleistung.)

    Bei den Problemen mancher Netzteile mit den Haswell-Prozessoren geht es um die Haswell C6/C7 Low-Power States. Der Prozessor nimmt dann so wenig Leistung auf (angeblich um die 0,05 Ampere) das sich manche Netzteile abschalten (ATX sieht wohl um die 0,5A vor) oder der Computer abstürzt. Quelle
    Auf einer englischen Super Flower Website habe ich eine Pressemeldung gefunden das deren Netzteile damit klar kommen. Habe aber, ganz naiv, zu Sicherheit eine Mail an die deutsche Firma geschickt - mal sehen.

    Danke für eure Hilfe.
    kalle

    Prozessor:

    Welchen Vorteil siehst du beim Ivy? 15 eur ersparniss? Dafür hat man so wie es aussieht ca 10 W mehrverbrauch mit Ivy.


    Gibt drei Größen die mich interessieren: Performance, Preis, Verbrauch. Die Performance des Celeron G1610 ist wahrscheinlich größer als ich benötigen werde - passt also. Der Preis ist mit 35.- Euro auch top. Und glaubst du der Pentium G3220, was ja momentan der kleinste Haswell ist, hat einen geringeren Verbrauch als der Celeron? Man liest ja überall das die 55W TDP des Celeron von Intel mehr als großzügig angegeben sind.

    SSD:
    Werde eine von denen nehmen:
    http://geizhals.de/?cmp=890677&cmp=946725&cmp=977934

    Netzteil:

    2A x 8 Platten sind 16A, bleiben noch 14 für das Gesamtsystem, sollte doch denke ich reichen.
    Seasonic - http://geizhals.de/?cmp=830678&cmp=596382


    Ich zitier mich mal selber:

    Habe auch mal nach Angaben zum 'Sea Sonic G-Series G-450 450W ATX 2.3' gesucht. auf der Homepage findet man weder Single- noch Multi-Rail, nur 12V - 37A. In einem Testbericht stand dann was von einer internen Aufteilung auf zwei Schienen: 1. Schiene CPU + 1x PCIe; 2. Schiene der Rest. Also eine ähnliche Situation: 18,5A für alle Laufwerke, das Mainboard und eine PCIe.


    Würde wahrscheinlich auch gerade so reichen - da ich aber nichts riskieren will bleib ich bei dem Super Flower-Power Supply.

    kalle

    Prozessor:
    Habe mir mal die Performance/Auslastung eines vorhandenen Athlon II X2 angeschaut und dessen Eckdaten mit denen der Celerons und Pentiums verglichen. Bin zu dem Schluss gekommen das mir der kleine Celeron G1610 völlig ausreicht.


    Meine Aussage bezog sich darauf das, laut Wikipedia-Intel-Prozessor-Liste, der Pentium G2120 (Ivy) mit 1600MHz und der Pentium G3220 (Haswell) nur mit 1333MHz Speicher umgehen kann. Ist aber egal - der Celeron wirds.

    Die SSD ist nix, nimm lieber eine mit Marvell Controller oder Samsung.


    Aha. Gibt es ja nicht so viele mit dem Marvell, daher habe ich mir mal ne Samsung rausgesucht. Ist die denn besser(schneller)?

    Die 500er Download würde ich weglassen und auf die anderen HDDs mit draufpacken.


    Habe eine etwas größere SSD gewählt - werde ne Download-Partition einrichten und wenn alles fertig entpackt ist wird es aufs RAID verschoben. Diese Belastung müsste eine moderne SSD ja weg stecken können, oder?

    Beim NT würde ich bei deinem Seasonic bleiben, ich denke nicht dass du mit den vielen Platten ein Netzteil raus hören wirst.


    Mir geht es da eher um die Belastung durch den Anlaufstrom der 8 Platten. Da bin ich mir bei dem Super Flower, mit einer 12V Schiene, einfach sicherer.

    Hier liest sich das nicht so schlecht:
    http://wiki.ubuntuusers.de/Baustelle/ZFS_on_Linux


    Klingt wirklich recht zuversichtlich. Am liebsten hätte ich halt eine Lösung mit Webinterface auf Ubuntu oder Debian Basis. Habe einiges über ZFS unter Open Media Vault gefunden - vielleicht probiere ich diese Kombination mal aus und schau wie es läuft.

    Danke für die Tipps.
    kalle

    Ja, jetzt hab ich's!

    Habe lange nach der Belegung der vier 12V Schienen beim 'be quiet! Straight Power E9-CM 480W' gesucht, keine Infos auf der Homepage. Aber im Handbuch bin ich fündig geworden. 4 x 18A - alle zusammen 38A; 12V1: SATA, HDD, FDD, 24-pin; 12V2: CPU (P8 connector, P4 connector); 12V3: PCI-E1; 12V4: PCI-E2. Also noch etwas schlimmer wie du vermutet hast, alle Laufwerke und das Mainboard teilen sich eine 12V/18A Schiene und die zwei PCIe Schienen bleiben unbenuzt.
    Das 'be quiet!' ist damit raus!

    Habe auch mal nach Angaben zum 'Sea Sonic G-Series G-450 450W ATX 2.3' gesucht. auf der Homepage findet man weder Single- noch Multi-Rail, nur 12V - 37A. In einem Testbericht stand dann was von einer internen Aufteilung auf zwei Schienen: 1. Schiene CPU + 1x PCIe; 2. Schiene der Rest. Also eine ähnliche Situation: 18,5A für alle Laufwerke, das Mainboard und eine PCIe.
    Das 'Sea Sonic' wäre dann wohl auch raus.

    Deine Empfehlung macht nach einigem Lesen im Netz wirklich einen guten Eindruck. Hätte gern ein Netzteil mit Kabelmanagement, aber bei dem 600W Teil ist mir Leistung und Preis zu hoch. Das 450er sollte mir von der Leistung und den Anschlüssen genügen - und mit 37A auf der 12V-Single-Rail bleibt ein mehr als ausreichender Puffer nach oben.
    Danke für den Tip!

    Netzteil:

    kalle

    Also preiswert, Stromsparend und auch noch Performance Reserven unter einen Hut zu bekommen wird nicht funktionieren.


    Alles auf einmal wird nicht funktionieren, klar. Ich versuche aber irgendwie ein optimales Gleichgewicht für genau meinen Zweck zu finden - habe aber bei meiner aktuellen Hardware-Auswahl ein gutes Gefühl. Vielleicht ist die Performance etwas zu hoch - aber besser so, als das es am Ende an Power fehlt.

    Wenn du bereit bis ein paar Doller in die Hand zu nehmen für das OS kann ich dir "unraid" empfehlen. ...


    Habe ich mir mal fix angeschaut. In Bezug auf Erweiterbarkeit und Flexibilität sicherlich ein guter Ansatz. Wenn ich später auf 8 Platten gehen sollte, wäre mir nur eine Paritäts-Platte allerdings zu unsicher. Dazu kommt noch die Slackware-Basis, von Ubuntu kommend, wäre Debian noch OK, aber dieser Sprung wäre mir dann doch zu "gewagt". Und als mehrjähriger Linux-Nutzer tu ich mich mit 88 Euro für die pro-Variante tatsächlich etwas schwer. Aber Danke für den Tipp - kannte ich noch nicht.

    Zum Anlaufstrom: Rechne mit ca 2A für normale Platten auf der 12V Leitung. D.h. du brauchst ca. 18A beim Einschalten. Du solltest darauf achten das diese 18A auch auf der benutzten Stromschiene zur Verfügung gestellt werden. D.h. es nutzt dir kein Netzteil das 20A auf der 12V Leitung hat, diese aber auf zwei Schienen verteilt, wobei eine exclusiv für das Board oder die GK benutz wird.....alle Klarheiten beseitigt?


    War mir eh etwas unsicher mit dem Sea Sonic, werde einfach das 'be quiet! Straight Power E9-CM 480W' nehmen. Das hat drei 12V Leitungen für Laufwerke mit jeweils 18A. Das heißt dann wohl maximal 12 HDD's - alles unklar! Danke.

    Also:


    kalle

    keibertz: Danke für deine Antwort.


    Mach dir über die Details dann in 1-2 Jahren sorgen. Es wird bis dahin bestimmt noch so viel neues auf dem Hardwaremarkt erscheinen, dass eine Detailplanung zum jetzigen Zeitpunkt recht sinnfrei ist. Nächstes Jahr sollen z.B. Helium gefüllte 5TB Festplatten auf den Markt kommen. Zudem soll auch spätestens 2015 SATA3.1 erscheinen.


    Kommt Zeit, kommt Rat. Da hast du wohl Recht.


    Naja als zu viel Luft nach oben hast du bei der CPU nicht. Je nach dem wie viel CPU Power du wirklich brauchst solltest du auch mal nach i3 oder gar i5 schauen. Wie Rechenaufwändig deine Anwendungen genau sind musst du aber selbst wissen. Für einen reinen Datenserver reicht die Celeron dicke. Würde aber derzeit wohl eher eine Haswell Pentium nehmen, Z.B. Intel Pentium G3220.
    ...
    Solange du keine Verschlüsselung verwendest wird es die CPU nicht weiter belasten. Wenn du verschlüsseln willst solltest du generell besser eine CPU mit AES nehmen, das gibt es bei Intel Haswell erst ab einer i3 CPU.


    Tja, wie viel Power ich genau brauchen werde wüsste ich auch gern. Kann aber nur vermuten. Vielleicht sollte ich aber etwas mehr Spielraum einplanen - wobei mit die i3's zu teuer sind - also Pentium. Aber statt auf die Haswell G3220 (und ein anders Board) würde ich doch lieber auf die Ivy G2120 mit dem besseren Speicher-Controller (und besseren Speicher) setzen. Wahrscheinlich ist es Jacke wie Hose.


    Von RAID erweitern halte ich generell nicht viel. Ist einfach viel zu Fehleranfällig ... Mischen zwischen OnBoard und RAIDController geht glaube ich gar nicht. Aber selbst wenn würde ich NIE machen.
    Ich selbst würde bei mehr als 6 Festplatten auch immer RAID6 statt RAID5 verwenden, siehe RAID5 vs. RAID6 Wenn du so oder so Linux verwendest kannst du statt RAID auch ZFS verwenden, siehe dazu http://www.hardwareluxx.de/community/f10…sch-570052.html


    Ein separater Controller bzw. das Erweitern des RAID hat sich ja erledigt - es bleibt vorerst bei 4 Platten im RAID5. Wenn es in einem Jahre knapp wird, schau ich weiter. Eine Option wäre dann z.B. einfach einen zweiten RAID5 Verbund aus vier HDD's über einen Controller hinzu zu fügen.

    ZFS ließt sich sehr interessant, allerdings scheue ich die Auseinandersetzung mit Solaris oder FreeBSD. Und eine richtige Integration in Linux wird wohl noch dauern, wenn sie denn überhaupt kommt. (Lizenzprobleme)

    Auf Linuxseite gibts da aber btrfs, was ähnlich ist und seit dem Kernel 3.9 sogar RAID 5 und 6 unterstützt. Ist aber doch sehr neu und eine geeignetes Server-Paket mit Webinterface für mein NAS wird es so schnell nicht geben. OpenMediaVault wird angeblich ab der Version 0.6 auf Debian Wheezy aufbauen - und dann auch btrfs unterstützen. Das RAID5 durch btrfs aufzubauen ist dann der nächste Schritt (Debian Jessie enhält den 3.9er).

    Also bleib ich beim standart Linux-Software RAID und OMV.

    Aber mit angepasster Hardware:


    Damit müsste ich doch auf der sicheren Seite sein. Oder?
    Noch weitere Tipps oder Kritiken?

    Bin mir zum Beispiel mit dem Netzteil nicht ganz sicher. Sollte schon den Anlaufstrom von 9 Platten liefern können aber trotzdem im Normalbetrieb so effizient wie möglich sein. Alternativ könnte ich mir auch das hier vorstellen: be quiet! Straight Power E9-CM 480W ATX 2.31. Habe irgendwo gelesen das das Sea Sonic G-450 gern mal etwas laut wird.

    Nochmals Danke.
    kalle

    Hi,

    zuerst kurz der Hintergrund. Ich habe mit einem 2-bay Synology NAS angefangen und habe aktuell ein 4-bay des selben Herstellers. Ist für meine Daten aber zu klein geworden. Außerdem habe ich in letzter Zeit versucht einige zusätzliche Aufgaben an das NAS abzuschieben und ne Menge Software auf dem System zu kompilieren. Leider stößt man durch die ARM-Architektur und die geringe Power des Prozessors schnell an die Grenzen. Da lag die Entscheidung den neuen Server selber zusammen zu bauen sehr nahe.

    Ziel ist es einen preiswerten und energiesparenden Server zusammen zu stellen der dennoch ein paar Performance-Reserven für gelegentliche "Spielereien" bietet.

    Die gesetzten Aufgaben des Servers:

    • Software-RAID5 Fileserver
    • NFS
    • FTP
    • MySQL
    • Squeezebox Server
    • SABnzbd


    Die geplante Hardware:


    Geplante Erweiterung nach 1-2 Jahren:


    Betriebssystem:
    Da ich schon ne Weile mit Ubuntu unterwegs bin, wollte ich zuerst einen Ubuntu Server aufsetzen und zum besseren Administrieren sowas wie Zentyal oben drauf packen. Allerdings ist mir dessen Funktionsumfang für meine Zwecke etwas zu umfangreich. Ich hätte lieber ne schlanke Lösung mit Webinterface auf Ubuntu oder Debian Basis, daher:

    Da es bei mir an Kenntnissen in Bezug auf Server und Hardware mangelt, hätte ich noch ein paar abschließende Fragen.

    • Passt die Hardware zu den Aufgaben des Servers?
    • Wie stark lastet ein Software-RAID5 oder 6 mit maximal 8 HDD's zusammen mit den anderen Aufgaben den Celeron-Ivy Prozessor aus? Wieviel Leistung bleibt für "besondere" Aufgaben übrig?
    • In der ersten Ausbaustufe reichen die SATA Anschlüsse des Mainbords aus. Kann ich bei der Erweiterung des RAID um zusätzliche 4 Platten einen einfachen SATA-Controler (z.B. HighPoint Rocket 640L, PCIe 2.0 x4) benutzen? Oder ist eine Mischung aus Mainbord- und Controller-SATA-Anschlüssen problematisch (Sicherheit, Performance)? Und ich sollte alle RAID-HDD's an einen Controller anschließen (z.B. Adaptec ASA-6805H, PCIe 2.0 x4 oder HighPoint RocketRAID 2320, PCIe x4)?

    Ich würde mich freuen, wenn mir ein paar von den Experten, die hier unterwegs sind, bei meinen Fragen helfen könnten. Möchte nach tagelangen recherchieren, informieren und konfigurieren nun endlich bestellen, zusammenbauen und installieren.

    Vielen Dank für eure Hilfe!
    kalle

    Danke.

    Im 12er funktioniert das tatsächlich, allerdings läuft das nur testweise auf meinem Laptop. Auf dem eigentlichen HTPC arbeitet noch XBMC 11. Und das wird es noch tun bis mindestens 'ne 12 Beta raus ist.

    Und da es weit über 100 Dateien sind fällt ein remuxen auf alle Fälle weg. Könnte man sicherlich über ein kleines bash-Script weitgehend automatisieren aber mit meinen Kenntnissen dauert mir das zu lang.

    Was mach ich denn wenn ich im XBMC 12 mal eine TV-Serie in einer anderen als der im System eingestellten Sprache sehen will? Muss ich dann bei jeder einzelnen Episode die Sprache umstellen?

    kalle

    Hi,

    der Titel sagt eigentlich schon alles. Ich habe eine TV-Serie mit mehreren Sprachen und Untertiteln. Leider muss ich im Moment bei jeder Episode am Anfang Tonspur und Untertitel von Hand wechseln.

    Gibt es eine Möglichkeit das für die gesamte Serie mit einem mal einzustellen?

    Der gewählte Ton/Untertitel wird ja in die Datenbank geschrieben. Man müsste da also einfach einen Eintrag bei allen Episoden vornehmen. Aber wie?
    Gibt's da einen Weg/ein Tool?


    kalle

    Danke.
    Schade.
    Eden ist ja noch recht frisch - das wird also noch dauern.

    Man könnte ja auch das [definition='1','0']log[/definition] auslesen. Ist halt etwas umständlich.
    Mit welcher Verzögerung nach dem Video-Start schreibt XBMC den den "Creating audio device"-Eintrag ins [definition='1','0']log[/definition]?
    Müssten ja locker unter ner Sekunde bleiben, oder?

    Gibts noch andere Wege (außer Python) Channels und Sample Rate aus XBMC raus an das OS zu bekommen?

    kalle

    Hi,

    versuche gerade über ein Python-Script verschiedene andere Prozesse auf OS-Ebene zu steuern.

    Gern würde ich auf verschiedene Sample Rates und Channel-Anzahlen auch verschieden reagieren.
    Video-Start, -Stop, -Ende und anderes funktioniert schon aber zu Sample Rate und Channels finde ich nichts.

    In dem Info-Overlay und im [definition='1','0']log[/definition] stehen die Werte ja - aber wie komm ich da ran?


    Danke
    kalle