Cinder - заметки по настройке

cinder

cinder.conf

Рабочий пример /etc/cinder.conf

[DEFAULT]
storage_availability_zone = AZ2

transport_url = rabbit://openstack:Aepie2i@10.0.11.171,openstack:Aepie2i@10.0.11.172,openstack:Aepie2i@10.0.11.173
auth_strategy = keystone
enabled_backends = REBS
default_volume_type = REBS
my_ip = 10.0.11.151

[database]
connection = mysql+pymysql://cinder:yoo9iY7o@10.0.11.190/cinder

[keystone_authtoken]
auth_uri = http://10.0.4.190:5000
auth_url = http://10.0.11.190:35357
memcached_servers = 10.0.11.181:11211,10.0.11.182:11211,10.0.11.183:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = cinder
password = Aepie2i

[REBS]
volume_driver = cinder.volume.drivers.sheepdog.SheepdogDriver
sheepdog_store_address = 127.0.0.1
sheepdog_store_port = 7000
volume_backend_name = Redundant Elastic Block Stroage

[oslo_concurrency]
lock_path = /var/lib/cinder/tmp

[oslo_messaging_notifications]
driver = messagingv2

Shares

Файл с перечнем шар, который планировщик cinder использует для создания блочных устройств: /etc/cinder/shares

Имена shares в контейнерах задаются по IP-адресу хоста!   В контейнерах CNDR-xxx: этот файл пустой и nfs-server-kernel остановлен.

На нодах:  nfs-server-kernel is ON

файл содержит описания совместно используемых NFS-каталогов

10.0.11.151:/ev3/volumes

Права на каталог /var/lib/cinder/volumes: 777 (cinder:cinder) в контейнере CNDR-xxx

Cinder не стартовал на гипервизоре

Проблема была в неверной настройке /etc/cinder/shares

Было так:

localhost:/volumes
localhost:/ev3/backups

Надо так:

172.18.10.10:/volumes
172.18.10.10:/ev3/backups

О квотах

В таблицах cinder.reservations и cinder.quota_usages регистрируется расход дискового пространства.

Если были вручную удалены диски из таблиц cinder.volumes, cinder.volume_attachment, cinder.volume_admin_metadata и прочие, то

в ПУ horizon будет неверно отображаться расходование квот.

Удалить квоты по id-проекта можно так:

delete from quota_usages where project_id=<project_id>;

Cinder-backup

Cinder-backup включить в ПУ horizon

Чтобы включить функционал резервного копирования в horizon надо в файле /usr/local/lib/python2.7/dist-packages/openstack_dashboard/local/local_settings.py добавить строку:

OPENSTACK_CINDER_FEATURES = { 'enable_backup': True,}

Чтобы настроить резервное копирование с помощью NFS-драйвера надо добавить в /etc/cinder/cinder.conf:

backup_driver = cinder.backup.drivers.nfs
backup_share = 10.0.11.151:/ev3/backup

ZFS пулы

Создание файловых систем ZFS на вычислительных узлах

zpool create vm-storage mirror ata-HGST_HUS726040ALA614_K4HU7HPB ata-HGST_HUS726040ALA614_K4HU7JZB -f
zfs set compression=lz4 vm-storage
zpool add vm-storage cache scsi-35000cca04eb43ed4-part2 scsi-35000cca051683164-part2 log mirror scsi-35000cca04eb43ed4-part1 scsi-35000cca051683164-part1
zpool import -N vm-storage
zfs create vm-storage/instances
zfs set mountpoint=/var/lib/nova/instances vm-storage/instances
zfs set compression=lz4 vm-storage
zpool export vm-storage
zfs create vm-storage/services
zfs create vm-storage/volumes
zfs set mountpoint=/var/lib/nova/instances vm-storage/instances