All Activity

This stream auto-updates

  1. Past hour
  2. Bitte entfern mal alle custom sachen die du gemacht hast wegen Stromsparen in deinem go file. Bitte check im BIOS das Above 4G Decoding oder Huge Address Space sowie Resizable BAR support aktiviert ist. Schau mal im BIOS ob deine Karte auch sicher erkannt wird. In welchem Slot hast du denn deine Grafikkarte drin? Check nochmal bitte ob sie gut sitzt im Slot bzw. versuch vielleicht nochmal sie aus- und einzubauen. Ich weiß nicht ob die Karte einen externen Anschluss für Strom hat aber selbst wenn sie einen hat und dieser wäre nicht angeschlossen würde die Karte erkannt werden und einen Fehler im syslog ausgeben.
  3. Bei vielen kleinen Dateien leider normal: https://learn.microsoft.com/de-de/troubleshoot/windows-server/networking/slow-smb-file-transfer
  4. After the file system repair I ran a parity check and that has just finished, so here's the new diagnostics. jmedia-diagnostics-20240319-1028.zip
  5. Wo gibt es die denn so günstig? Edit: Ach bei Ali wahrscheinlich
  6. yeah I changed : to = the error status disappear now in the container i can ls /dev/nvidia* -l and get the right result like crw-rw-rw- 1 root root 195, 254 Mar 12 16:32 /dev/nvidia-modeset crw-rw-rw- 1 root root 236, 0 Mar 12 16:32 /dev/nvidia-uvm crw-rw-rw- 1 root root 236, 1 Mar 12 16:32 /dev/nvidia-uvm-tools crw-rw-rw- 1 root root 195, 0 Mar 12 16:32 /dev/nvidia0 crw-rw-rw- 1 root root 195, 255 Mar 12 16:32 /dev/nvidiactl the explore carries on
  7. Is it possible to merge power off and power on commands to one script? times= { poweroff=20 poweron=8 }
  8. Vielen Dank dir Joerg für deine Rückmeldung. Dann werde ich sicherheitshalber doch das 19V 90W Netzteil nehmen. Zur Ergänzung hier meine Kosten (ohne Festplatten): - Asrock N100DC-ITX (140€) - ASM1166 SATA PCIe 3.0 X1 (17,50€) - 32 GB DDR4 RAM Crucial CT32G4DFD832A (66€) - 19V 90W Netzteil 5,5 x 2,5 mm Leicke (18€) - Gehäuse Jonsbo N2 (145€) Gesamt: 386,50€ Grüße Vitalij
  9. 有一个叫做 Dynamix Factory Reset 的插件,可以将 Unraid 还原成初始状态。
  10. Lieber Browi, nicht gleich verzweifeln und die Flinte ins Korn werfen. Eine fertige (gekaufte, Hardware-)Lösung kann "click, click, finish" sein, aber ist meist nicht flexibel. Eine flexible Lösung braucht ein wenig Verständnis und Ausdauer...und es hat auch nix mit unraid selbst zu tun. Das ist eine gute Idee...der Tool-Stack dafür nennt sich aber TIG (Telegraf - InfluxDB - Grafana). Siehe oben. Da musst Du Dich mal in MQTT und auch in die AhoyDTU einlesen. MQTT ist ein Kommunikationsprotokoll, funktioniert aber etwas anders als eine 1:1 Kommunikation. Ein "Sensor" kann Informationen "publizieren"...diese schickt er an den MQTT-Broker, quasi als "Info an die Welt", also nicht an eine dedizierte Gegenstelle, die auf die Infos wartet. Jede Info hat zwei Teile, das "Was" = Topic (zB tele/THR320D-01/SENSOR) und die Werte-Info dazu ... diese kann einfach (ein einzelner Wert, zB "25" sein, oder ein komplexer "String", der viele Details enthält. Meist ist das dann ein JSON String, zB: {"Time":"2024-03-19T09:47:21","SI7021": "Temperature":13.1,"Humidity":60.4,"DewPoint":5.6},"TempUnit":"C"} Gegenstellen können sich beim Broker anmelden / "subscriben" und eröffnen quasi dort ein Postfach unter ihrem Namen (daher ist es wichtig, das hier von der Gegenstelle eine Client-ID vergeben wird) für ein oder mehrere Topics. Der Broker verteilt dann die Topics (inkl. Daten), sobald sie vom Sensor publiziert wurden an die einzelnen Postfächer der Subscriber weiter. Wichtig: Ist die Gegenstelle nicht aktiv mit dem Broker verbunden, wenn der Sensor Topics publiziert *und* haben die Topics vom Sensor das "Retain"-Flag mitbekommen, füllt der Broker quasi die Postfächer auch mit diesen Daten....sonst füllt er nur das Postfach nur mit dem letzten Datensatz. Meldet sich eine Gegenstelle (wieder) an, bekommt sie "ihr" Postfach (wenn die Client-ID konstant bleibt auch mit den zwischenzeitlich aufgelaufenen Daten für das Topic.). Telegraf ist so eine Gegenstelle, die automatisiert Topics subscribed und die Daten in eine InfluxDB schreiben kann. Mit Grafana kannst Du dann die Daten aus der InfluxDB wieder visualisieren. Schau Dir also mal das an: https://github.com/c1328/ahoy-mosquitto-telegraf-influx-grafana Ich hab ne grosse PV und Speicher, Wärmepumpen und E-Autos...alles schön aufbereitet über einen MQTT-Broker -> telegraf -> InfluxDb sieht es in Grafana zB so aus: ....have fun. die Mosquitto.db ist nur zur Verwaltung von "Daten/Topics" und wann/ob Clients/Subsciber die schon abgeholt/bekommen haben, vor allem wenn es Topics mit Retain Flag sind....also nur für Mosquitto selbst, wenn der Broker mal abstürzt und eben keine Datenbank historischer Werte mit denen man Auswertungen macht. Wie @alturismo schon schrieb....diese Einstellung brauchst Du im MQTT eigentlich nicht, wenn alles im LAN stattfindet und vor allem auch die Tools auf dem gleichen Host wie der Broker sind (unraid). Wenn die DB ständig wächst kann das ein Hinweis darauf sein, dass evtl. die Client-IDs der Subscriber nicht statisch sind, sondern sich bei jeder Verbindungsaufnahme zum Broker ändern, während der Sensor (AhoyDTU) evtl. sogar mit Retain-Flag einliefert....die Postfächer im Broker wachsen dann an. Man macht das oft, wenn man auf jeden Fall immer den letzten Wert des Topics bekommen will (der Broker merkt sich, welches Topic von welcher Gegenstelle bereits abgeholt wurde und bietet es, bei gleicher Gegenstelle eben nicht nochmal an... siehe auch die QoS im MQTT Einstellungen dazu. Wie gesagt, mit allen Komponenten auf unraid und Sensoren im eigenen (W)LAN brauchst Du es nicht, ich würde drauf verzichten...schont Ressourcen.
  11. If the log tree is the only issue this may help: btrfs rescue zero-log /dev/nvme0n1p1 Then restart the array.
  12. I have 2 nic on my mb, eth 0 for unraid main port (192.168.50.164) and use openwrt gateway (192.168.50.200) to connect to CA since I'm in China and its hard to connect to CA or dockerhub. eth 1 for docker dedicated use, I use it connect to main route ( ASUS AX11000 ) to host img like qbittorrent, transmission, plex and others that need direct linkage to pub since I can just port forward via eth 1. The plex docker issue is that If I use custom eth 1, I cant visit the local ip ( set plex ip to 192.168.50.5) via http://ip:32400/web, also port forwarding not succeed. However if I use eth 0 host for plex, the local net visit is fine but also port forwarding not ok. Weird things is the qb and tr docker is ok as the same setting as plex. So I turned into lxc to try yesterday, found its great and above network problem solved.
  13. You should not need to copy anything from the flash drive, just assign the pool devices to a new pool on the other server, in the same order as zpool import/status. To send the data back, and if you have snapshots you want to keep, you can use zfs replication over ssh.
  14. 尝试更改一下“Docker自定义网络类型”:如果用的是 ipvlan 那么改成 macvlan,如果用的是 macvlan 那么尝试改成 ipvlan。
  15. Diags are after rebooting so we can't see what happened, but the disk looks healthy, since the emulated disk is amounting, and assuming contents look correct, you can rebuild on top, recommend replacing the cables first to rule that out, if it happens again to the same disk.
  16. Ich habe tag täglich damit zu tun, eine große Anzahl an kleinen Dateien von meinem Arbeitsplatz (Windows) zu meinem Unraid System zu kopieren. Dieser Transfer dauert leider mitunter einige Stunden. Mit steigender Anzahl an Dateien dauert es umso länger. Aktuell läuft noch KEINE paritätsplatte mit. Es wird auch erstmal alles auf der NVME Cache Platte gespeichert und später mit dem Mover auf die große HDD kopiert. Große Dateien einzelne Dateien nutzen die kabelgebundene 1GB Netzwerkverbindung voll aus. Gibt es Möglichkeiten, ohne auf irgendwelche Tools Drittanbieter zu wechseln, die Geschwindigkeit zu erhöhen. Ich brauche für diverse Programme die Möglichkeit, die Freigaben auch als Netzlaufwerk anzusprechen.
  17. Enable the syslog server and post that after a crash.
  18. Syslog starts over after every boot, also it usually won't have anything logged for that kind of issue anyway, just see if the server runs stable now.
  19. AFAIK you cannot, at least not without causing issues, /mnt/user is reserved for Unraid.
  20. If it worked for one it should work for the other ones, except maybe disk1, since that one was rebuilt.
  21. 删掉虚拟机器配置,重新添加就行。
  22. You can try this, not sure it will work, but it might, and if it doesn't, it won't cause anymore harm, with the array stopped, and assuming disk1 is still sdb, type: sgdisk -o -a 8 -n 1:32K:0 /dev/sdb The restart the array.
  23. Hey Team, Yup... I'm back.. The server stoped crashing for a good while. But it's been a few days now that the server crashes absolutly everyday... I have to manualy restart it every morning.. No idea what's going on.. If anyone has some sort of idea Ben
  24. If you already recovered the data it's not a big deal, but it will also prevent us to try and see if it was recoverable or not, since the rebuild will overwrite the old disk.
  1. Load more activity