MTRNord (they/them) · @MTRNord
71 followers · 1605 posts · Server mastodon.nordgedanken.dev

Anyone here familiar with recover? I ran out of space because it isn't reclaiming free space. Any ideas what I need to do?

Reboosts appreciated

#cephfs #ceph #rook #kubernetee

Last updated 1 year ago

ij · @ij
1992 followers · 6628 posts · Server nerdculture.de

Hmmm, die Mastodon Datenbank finde ich nun auch nicht gerade klein mit 59 GB.
Die fast 400 GB Medien stoeren mich nun mit dem zum Glück nicht mehr. Insbesondere nicht, wenn ich die VM dann mal auf einen anderen Host verschieben muss.

#cephfs

Last updated 1 year ago

vsoch · @vsoch
402 followers · 241 posts · Server mastodon.social

This is early work - I'll need to work through the same logic using cloud, and once we have that, we need to optimize. It's just exciting after an arduous weekend of failure with and . It's OK if things are hard sometimes, but that kind of complexity is a red flag. 🟥

#rook #cephfs

Last updated 2 years ago

ij · @ij
1972 followers · 6301 posts · Server nerdculture.de

irgendwie verstehe ich noch nicht so recht....
- Für ein CephFS brauch ich OSDs
- außerdem braucht ein CephFS auch eigene Metadata und Data Pools
- und es braucht offenbar pro CephFS einen eigenen MDS

Wenn ich nun auf einem 3-node Ceph Cluster mehrere getrennte Filesysteme haben will, kann ich maximal 3 haben, weil MDS hier beschränkt.
Oder ist die Idee dann, dass man mit Volumes arbeitet?

#cephfs

Last updated 2 years ago

ij · @ij
1964 followers · 6246 posts · Server nerdculture.de

Also irgendwie komme ich mit noch nicht so ganz klar:

Ich hab einen Pool, ein CephFS, ein Subvolume und die Anleitung:

docs.ceph.com/en/quincy/cephfs

Aber wo bekomme ich die client.<id> her? Hmmm...

#cephfs

Last updated 2 years ago

ij · @ij
1933 followers · 6102 posts · Server nerdculture.de

A question again:

How can I change the default mount path for ? I don't want it to be under /mnt/pve/<STORAGE_ID>/ as described in pve.proxmox.com/wiki/Storage:_, but maybe on /srv/pve/<STORAGE_ID> instead.

Editing the path after creation in storage.conf feels wrong to me...

#proxmox #cephfs

Last updated 2 years ago

Sortiermodus · @newdefined
218 followers · 7699 posts · Server troet.cafe

Erster Eindruck nachdem das Cluster sein gesynct hat: Ramverbrauch ist höher. Steht aber auch in der Doku: 1GB RAM pro 1TB cephfs

#proxmox #cephfs

Last updated 2 years ago

Sortiermodus · @newdefined
218 followers · 7688 posts · Server troet.cafe

Die neuen Server laufen, sind im und synct über Jetzt kann ich expandieren

#proxmox #corosync #cephfs #cluster

Last updated 2 years ago

· @jokeyrhyme
66 followers · 908 posts · Server aus.social

Hmmm, I think installing this helm chart of the CSIDriver on my cluster has ruined it: artifacthub.io/packages/helm/c

Every node is pegged at 100% CPU usage, only able to respond to a small fraction of pings, and not responding to `kubectl` at all

There's a warning about this at talos.dev/docs/v0.14/guides/st :
> Also, if your cluster is small, just running Ceph may eat up a significant amount of the resources you have available.

I just wasn't expecting 100% of my resources to be consumed, and just by the CSIDriver

This isn't even the actual CephFS cluster that I'd need to be able to store files, this is just the driver to connect to such a cluster, and it is all-consuming!

I'm going to leave this for a few hours and see if this converges on a working state by itself, otherwise I'm going to have to wipe and start with a fresh cluster :S

So kids, don't do CephFS

#cephfs #kubernetes

Last updated 2 years ago