#contabo I like this hoster. It is cheap if you dont need support and do your backups yourself, but their cloudstorage as #s3storage only is just too limited for my use cases. Where can you really integrate a Non-Posix Filesystem properly. I appreciate more #hetzner approach where you can at least use #NFS #smb and #ssh to connect to your data.
#contabo #s3storage #hetzner #NFS #smb #ssh
Ich ärgere mich immer noch, dass #FileZillaPro nicht mit jedem #S3Storage Server funktioniert, weil keine path style buckets akzeptiert werden, nur host style buckets.
Bei so ziemlich jedem anderen Programm kann eins auswählen, nur bei FileZillaPro ist das nicht möglich.
Ich habe es (mit Hilfe von Expert*innen) jetzt endlich geschafft, #Contabo #S3Storage in meine #Pixelfed-Instanz einzubinden.
In der .env-Datei sind dafür folgende Einträge erforderlich:
PF_ENABLE_CLOUD=true
FILESYSTEM_CLOUD=s3
FILESYSTEM_DRIVER=local
AWS_ACCESS_KEY_ID=<access_key>
AWS_SECRET_ACCESS_KEY=<secret_access_key>
AWS_DEFAULT_REGION="EU2"
AWS_BUCKET=<bucket-name>
AWS_URL=https://eu2.contabostorage.com/<tenet-id>:<bucket-name>
AWS_ENDPOINT=https://eu2.contabostorage.com/
AWS_USE_PATH_STYLE_ENDPOINT=true
Wer will, setzt auch noch:
PF_LOCAL_AVATAR_TO_CLOUD=true
MEDIA_DELETE_LOCAL_AFTER_CLOUD=true
Anschließend "php artisan config:cache" und, ganz wichtig, im Administrator-Dashboard auf der Settings-Seite S3 aktivieren.
Any Pixelfed admins here who successfully use #Contabo #S3Storage for their instance?
#pixelfed #pixelfedadmin #contabo #s3storage
Do I really need #S3Storage to store remote avatars? Is is not possible to store them locally?
#pixelfedadmin #pixelfed #s3storage
Ich gebe #Pixelfed jetzt doch noch eine Chance, aber diesmal auf einem anderen PC. Da muss ich allerdings noch den vorhandenen Web-Server gegen nginx austauschen.
Aussichtslos bleibt wohl die Integration von #Contabo #S3Storage. Das scheint nicht kompatibel zu sein. Auch darum der andere PC - der hat einfach mehr Speicherplatz als mein Server.
#FediHelp #Pixelfed #PixelfedAdmin #S3Storage
I have configured Pixelfed with S3 storage support. S3 storage provider is #Contabo .
New images are uploaded to the S3 bucket (and also stored locally), but Pixelfed can't show them ("No preview available"). Firefox' network monitor reports a HTML status 401 ("Unauthorized").
My S3 configuration:
PF_ENABLE_CLOUD="true"
FILESYSTEM_CLOUD="s3"
FILESYSTEM_DRIVER="s3"
AWS_ACCESS_KEY_ID="<access_key>"
AWS_SECRET_ACCESS_KEY="<secret_key>"
AWS_DEFAULT_REGION="EU"
AWS_BUCKET="<bucket_name>"
AWS_URL="https://eu2.contabostorage.com/<bucket-name>/"
AWS_ENDPOINT="https://eu2.contabostorage.com"
AWS_USE_PATH_STYLE_ENDPOINT="true"
Anyone who know what's wrong with my configuration?
#fedihelp #pixelfed #pixelfedadmin #s3storage #contabo
Warum hat mir eigentlich niemand gesagt, dass es mit #s3fs eine Möglichkeit gibt, #S3Storage-Buckets ganz einfach unter Linux zu mounten?
Mein #S3Storage hat sich jetzt bei ca. 120 GB eingespielt, ursprünglich waren es ca. 160 GB im Mittel.
Das bei derzeit 15 eingeschalteten Relays.
Wer plant, eine eigene #Mastodon-Instanz aufzusetzen, sollte von Anfang an S3 Storage einbinden, das ist meiner Erfahrung nach einfacher, als es nachträglich zu tun – und man kommt ohnehin nicht umhin, es zu tun.
Es gibt mehrere Anbieter für S3 Storage. Ich hatte es zuerst bei Ionos versucht, da dort auch der Cloud Server für die Instanz liegt, bin aber schließlich bei Contabo gelandet. Da bezahle ich einen monatlichen Festpreis – unabhängig vom Traffic.
Was ich noch nicht getan habe, aber was sicherlich sinnvoll ist: einen Cache für den S3 Storage einzurichten.
Diese kleine Instanz belegt Stand jetzt 194,66 GB auf dem #S3Storage.
Allerdings scheint heute Nacht die Bereinigung nicht funktioniert zu haben.
Eine #Mastodon-Instanz benötigt einiges an Platz...
Auf dem #S3Storage sind sogar insgesamt 147 GB belegt.
Ubuntu, Mastodon (inkl. PostgreSQL und Redis) und LibreTranslate belegen dagegen nur 23 GB auf der SSD des Servers.
114,73 GB meines #S3Storage für diese fischige #Mastodon-Instanz sind nach ein paar Tagen und dank mehrerer Relays und trotz täglicher Bereinigung schon belegt.
Und täglich wird es mehr.
Wer darüber nachdenkt, eine eigene Instanz aufzusetzen, sollte sich dessen bewusst sein. Und von Anfang an einen #S3Storage einbinden. Es geht auch nachträglich, aber dann ist es etwas komplizierter.
Ich frage mich, ob ich beim Anbieter für den #S3Storage dieser Instanz die richtige Wahl (#Contabo) getroffen habe.
Es kommt mir sehr langsam vor – allerdings habe ich keinen Vergleich zu anderen S3-Anbietern.
#FileZillaPro mag einfach nicht mit #S3Storage von #Contabo verbinden und erfindet beim Versuch mal eben neue URLs, indem der Pfad zur Subdomain wird.
#filezillapro #s3storage #contabo
Nachdem ich die Mediendateien dieser Instanz ins S3 Storage verschoben und die lokalen Mediendateien gelöscht habe, wurden immerhin 47 GB auf der Festplatte frei.
So belegen Ubuntu, Mastodon und LibreTranslate jetzt noch 22 GB auf der Festplatte.
Im Nachhinein betrachtet wäre es schlauer gewesen, den #S3Storage gleich bei der Installation von #Mastodon einzubinden.
Frau benötigt ihn ohnehin, und das eher früher als später.
S3 Storage:
What is your (current) S3 Service of choice?
Why?
How many you have already tested?
Weird things you experienced?
#s3 #s3Storage #wasabi #digitalocean #aws #gcs #clourflareR2 #storj #idrive #backblaze
#s3 #s3storage #wasabi #digitalocean #aws #gcs #clourflarer2 #storj #idrive #backblaze
Finally, got my first bill from Cloudflare R2 ... as they have no overview of the current running cost, this was interesting.
Storage is weirdly counted and not a problem at all... but my mastodon instance generated 2.5 million Class A operations for $9 last month. 3 days ago I moved to iDrive e2 - bc I hated that I have no clue about the running cost with Cloudflare. Idrive is 4$ for 12 months and that is it.
#mastodon #instance #cloudflare #clourflareR2 #idrive #idriveE2
#s3 #s3Storage
#mastodon #instance #cloudflare #clourflarer2 #idrive #idrivee2 #s3 #s3storage
After running my #singleUser #mastodon instance for just over a week, here are some of my observations;
- my basic server set-up on DigitalOcean is creaking but seems to be hanging on in there
- 1GB RAM is constantly at around 90% use
- Storage has slowly filled up to around 75% of the disk
Seriously considering migrating to use #pleroma as it’s a lot less resource hungry. Also probably gonna have to plump for #s3Storage for media, but hopefully shouldn’t be too costly given my needs.
#SingleUser #mastodon #pleroma #s3storage