hawihoney

Members
  • Posts

    3416
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. FTP ist ein ganz einfaches Protokoll, so wie auch z.B. Usenet, Mail, etc. Als die entstanden musste ich die noch auf der Kommandozeile abrufen. Da ich davor schon ein paar Jahre einen BBS (Bulletin Board System) für andere Entwickler betrieben hatte, war das pillepalle einfach. Ich schweife ab ... FTP und seine Derivate gehören nicht nach draußen PUNKT. Alternativen gibt es reichlich. Für so eine simple Bildbetrachtung würde ich persönlich kein Fass (NGINX, diverse Container, Router Ports) aufmachen. Ich würde mir einen ohnehin sinnvollen VPN Kanal ins Netzwerk schaffen (z.B. über den Router). Dann kannst Du Dir die Bilder völlig banal über den Dynamix File Manager (Plugin aus dem Unraid App Store) anschauen. Wenn Du doch mehr willst vielleicht dann doch Nextcloud oder oder oder. Wenn Du z.B. eine Fritzbox besitzt starte mit deren VPN (Stichwort MyFritz) und probiere den Zugriff auf die Bilder aus. Komplizieren kann man dann immer noch ...
  2. Vorne, lokal, anfangen: Parent Custom=user und Child Custom=ipcam. Existiert der User annke in Unraid? Was passiert bei dieser Einstellung? ftp://username:password@IpDesServers Du landest mit FTP unter /mnt/ deshalb Custom Parent=user. Danach folgt der Share. War ganz einfach zu testen. Wenn das läuft gehts ans externe betrachten.
  3. Es gibt ein Problem mit 6.12.9 unter ganz bestimmten Umständen. Wer diese Konfiguration betreibt sollte 6.12.9 noch nicht installieren. Es geht um CIFS/SMB Remote Mounts die mit Unassigned Devices in Unraid angelegt werden (/mnt/remotes/xxx). Das heißt Unraid ist der Klient einer CIFS/SMB Verbindung. Die Funktion von Unraid als Server einer CIFS/SMB Verbindung ist nach derzeitigem Erkenntnisstand davon nicht betroffen. Es gibt zwei aktuelle Bug Reports, einer ist von mir: Weiterhin gibt es von @dlandon einen Hinweis wohin das Problem zeigt (Kernel/SAMBA): Erkennen könnt Ihr das Problem eindeutig an den CIFS VFS Fehlern in der syslog. Wenn diese auftauchen, dann seht Ihr oder Eure Software nur einen Teil der existierenden Ordner oder Dateien. Das kann erhebliche Probleme nach sich ziehen. Wer 6.12.9 über 6.12.8 bereits installiert hat, und diese Konfiguration betreibt bzw. den Fehler bekommt --> ein Downgrade auf 6.12.8 ist jederzeit problemlos möglich:
  4. As I wrote - client mounts thru Unassigned Devices only AFAIK. Server/NAS shares work as usual AFAIK. The problem shows up if Unraid is the SMB client - not the server.
  5. I don't rate that as a "major" regression. If you don't use remote SMB/CIFS mounts you won't even notice it. It's a little niggle IMHO. Something that appears in special circumstances.
  6. Versuch doch erstmal das Ganze ans Laufen zu bringen - nicht immer weitere Störfeuer. Hast Du meine beiden Anmerkungen oben umgesetzt?
  7. In my case these were Unraid Servers running 6.12.9 as well. I did upgrade them all yesterday. All have SMB mounts to each others disks (disk shares) via Unassigned Devices. They all showed this error. The mounts were there, but showed only the first directory per mount. syslog was full of CIFS VFS errors. After downgrading all machines to 6.12.8 business is back as usual.
  8. Versuch doch mal Custom "user" unter Parent Directory und Camera Name unter Child Directory. Hier treffen zwei dämliche Systeme aufeinander.
  9. I'm quiet sure that this is releated to this bug linked below. syslog shows system errors, the result is Unassigned Devices not working properly IMHO.
  10. This morning I did update from 6.12.8 to 6.12.9. Everything looked good BUT my remote shares from Unassigned Devices don't work any longer. I use this to start my remote shares: /usr/local/sbin/rc.unassigned mount //192.168.178.101/disk1 Looking at the result it says "Success". But looking at the directories I see the first folder only. Looking at syslog it shows lots of: Tower kernel: CIFS: VFS: directory entry name would overflow frame end of buf 000000001ffe5d91 I think there's something broken between 6.12.8 and 6.12.9. Will go back soon. Diagnostics attached. tower-diagnostics-20240327-1537.zip
  11. Ich sach doch, das verwirrt total. Ziel Lokal /mnt/user/Test_LB/ readonly Quelle Remote ssh root@host:/mnt/user/Test/ Der kann am Ziel nicht schreiben. Nachtrag: Ändere /mnt/user/ auf read/write und schmeiß diesen überflüssigen Pfad aus den Container-Einstellungen:
  12. Damit wir das richtig verstehen. Host: /mnt/user/Test/ <--> im Container: /mnt/user/Test/ Remote Host: /mnt/remotes/<Servername>/Test/ <--> im Container: /mnt/user/Test/ Wie heißen die voll qualifizierten Ordner? Und welcher Ordner läßt sich wo nicht löschen? Mir fehlt da Einiges an Details.
  13. Für eines der kommenden Release wird erwartet, dass die Grenzen fallen werden. Wenn ich das im Interview mit dem Inhaber richtig gehört habe, dann wird das Array zu einem Pool. Und man wird dann mehrere Array-Pools anlegen können. In diesem Zuge fallen dann auch die Grenzen des Movers. Pool zu Pool wird dann möglich sein. Wie gesagt: Das wurde im Interview angedeutet.
  14. Das geht nicht ohne Eingriff des Herstellers. Es wird zwar nie erwähnt, aber die Lizenz ist nicht nur an den Stick sondern auch an die E-Mail Adresse gebunden. Wende Dich an den LimeTech Support und schildere Deine Situation. Halte Kaufnachweise o.ä. bereit. Die werden die Lizenz auf die neue E-Mail transferieren und der alten E-Mail den Zugang entfernen: https://unraid.net/contact
  15. Aber die hast Du eben nicht - und mich hat das bereits verwirrt. /mnt/user/user/... oder /mnt/user/remotes/... ? Würde ich nie so machen. Wenn schon dann: /mnt/addons/ --> /mnt/addons/ /mnt/disks/ --> /mnt/disks/ /mnt/remotes/ --> /mnt/remotes/ /mnt/user/ --> /mnt/user/ Dann könntest Du wie selbstverständlich z.B. von /mnt/user/Dokumente/ nach /mnt/remotes/Backup/Dokumente/ oder vice versa sichern und es würde bei Host und Container mit identischen Pfaden gearbeitet. Alles andere wird auf Dauer verwirren. Aber wie schon von Euch gesagt: Das ist Latte, kann jeder machen wie er will. Oder für die, die wissen was sie machen, und vielleicht faul sind: /mnt/ --> /mnt/
  16. Hab zwar selber keine User Shares im Einsatz, aber sind die remotes tatsächlich auch unter /mnt/user/ zu finden? Dann würde bei mir /mnt/user (FUSE) über drei Rechner laufen. Das kann ich mir nicht vorstellen. Ich denke die drei kann man nur über /mnt/xxx/ erreichen (xxx -> addons|disks|remotes).
  17. On the "Disk settings" page the following help text needs some more details or clarification IMHO: Shouldn't this be "cache or pool"?
  18. Steht in der Hilfe bei den Disk Settings (ersetze Cache durch Pool, werde ich mal weitergeben):
  19. Wenn Du eine alte Lizenz gekauft hast, dann bleibt diese gültig:
  20. Natürlich nicht. Eine einzelne Parity-Platte kann eine einzelne Daten-Platte nur mit Hilfe aller anderen Daten-Platten rekonstruieren. Erneut verweise ich auf die offizielle Doku. Hier wird die Funktionsweise erläutert: https://docs.unraid.net/legacy/FAQ/Parity/ Es gibt aber noch eine ganz einfache Lösung für Dich: Tausche 1x 8 TB durch die neue 16 TB und lass die andere 8 TB drin. Kannst die dann später mal ebenfalls gegen 16 TB tauschen ...
  21. Der offizielle Weg: Schritt 1: 1x 8 TB gegen neue 16 TB tauschen https://docs.unraid.net/legacy/FAQ/replacing-a-data-drive/ Schritt 1a: Daten von zweiter 8 TB auf neue 16 TB verschieben. Schritt 2: 1x 8 TB entfernen https://docs.unraid.net/legacy/FAQ/shrink-array/ Bei Schritt 1 habe ich das noch nie gemacht. Ging auch ohne:
  22. Das macht eigentlich der Parameter allow_other im rclone mount. Mich wundert schon, dass es zwischen @alturismo und mir unterschiedliche Berechtigungen nach dem mount gibt. Bei mir ist es so wie beim @sylvio2000: root@Tower:~# ls -la /mnt/addons/gdrive/ total 0 drwxrwxr-x 1 nobody users 0 Feb 25 21:20 ./ drwxrwxrwt 3 nobody users 60 Feb 25 21:20 ../ drwxrwxr-x 1 nobody users 0 Feb 24 2023 Backup/ Vielleicht sollte mal jemand testen ob in dem fraglichen Container mit einem eigenen User und einer eigenen Gruppe gearbeitet wird.