diff --git a/Readme.md b/Readme.md
index 7a79880..c3ed9b9 100644
--- a/Readme.md
+++ b/Readme.md
@@ -10,32 +10,31 @@ Ein server muss minimal vorbereitet sein, bevor er mit den hiesigen Skripten zum
Zusätzlich ist sehr empfehlenswert, dass die Admins die Maschinen mit ihren fqdns in ihrer ssh-config definiert haben.
-Bisher gibt es hier zwei Sammlungen von files: zum Einen der Beginn des eigentlichen Zwecks: bisher kann eine Rolle (auf Basis der obigen Voraussetzungen) alle FFMWU-Server in dem ihnen allen identischen Aspekt vorberein, der Pflege der ssh keys der admins. Zum Anderen gibt es ein playbook, das eine lokale Test-VM aufsetzt, auf der man alle eigentlichen playbooks und Rollen testen kann, ohne ernsthaften Schaden anzurichten.
+Bisher gibt es hier zwei Sammlungen von files: zum Einen der Beginn des eigentlichen Zwecks: bisher kann eine Rolle (auf Basis der obigen Voraussetzungen) alle FFMWU-Server in dem ihnen allen identischen Aspekt vorbereiten, der Pflege der ssh keys der admins. Zum Anderen gibt es ein playbook, das eine lokale Test-VM aufsetzt, auf der man alle eigentlichen playbooks und Rollen testen kann, ohne ernsthaften Schaden anzurichten.
## Aufsetzen und Pflegen von Gateways
-Alle FFMWU-Gatways sind auch FFMWU-Server, alle anderen server bei uns überraschenderweise auch; so sind auch alle im inventory in der Gruppe 'ff-servers' zusammengefasst. Der Aspekt, der allen FFMWU-Servern gemein ist, sind die ssh-keys der admins. Auf einigen servern gibt es allerdings weitere Zugriffsberechtigte (spezialisiert admins).
+Alle FFMWU-Gatways sind auch FFMWU-Server, alle anderen server bei uns überraschenderweise auch; so sind auch Alle im inventory in der Gruppe 'ff-servers' zusammengefasst. Der Aspekt, der allen FFMWU-Servern gemein ist, sind die ssh-keys der admins. Auf einigen servern gibt es allerdings weitere Zugriffsberechtigte (spezialisierte admins).
-So gibt es eine Rolle ('ffmwu-server'), die allen hosts dieser Gruppe zugewiesen ist (über das playbook 'ffmwu-servers.yml'). Dieses playbook (einfach starten) weist die Rolle dazu, welche ihrerseits die shh keys auf den hosts pflegt.
+So gibt es eine Rolle ('ffmwu-server'), die allen hosts dieser Gruppe zugewiesen ist (über das playbook 'ffmwu-servers.yml', später auch über Abhängigkeiten der speziellern playbooks). Dieses playbook (einfach starten) weist die Rolle zu, welche ihrerseits die shh keys auf den hosts pflegt.
Die Rolle besteht aus nur einem task und einer definierten Variable, die die keys der admins enthält. Sind auf einem host weitere ssh keys von Nöten, so werden disse als hostvar definiert.
## Erzeugen einer test-VM
-Um die playbooks und Rollen gefahrlos testen zu können, bietet sich ein test host an. Hierfür kenn eine lokale VM zu Einsatz kommen, wenn die Voraussetzungen stimmen.
+Um die playbooks und Rollen gefahrlos testen zu können, bietet sich ein test host an. Hierfür kann eine lokale VM zu Einsatz kommen, wenn die Voraussetzungen stimmen.
-Damit auf der lokalen Maschine (der ansible controle machine) VMs ablaugen können, müssten verschiedene Voraussetzungen erfüllt sein. U. a.:
+Damit auf der lokalen Maschine (der ansible controle machine) VMs ablaufen (und mit dem playbook angelegt werden) können, müssen verschiedene Voraussetzungen erfüllt sein. U. a.:
- installierte Pakete zu libvirt, kvm und qemu und Pakete virt-manager, isomaster
- >15G freier Plattenplatz
- ansible >= 2.1
-Leifer sind die letzten 2 Meter der Aufgabe offenbar nicht automatisierbar. Deshalb muss der user an einer Stelle mit 'isomaster'kurz etwas manuell durchführen
+Leider sind die letzten 2 Meter der Aufgabe offenbar in dieser Art nicht automatisierbar. Deshalb muss der user an einer Stelle mit 'isomaster' kurz etwas manuell durchführen
Das playbook 'loctevm-reset.yml' einfach ausführen.
### bekannte Probleme
-- Oft kann ansible die erzeugt VM nicht starten (um die debian-Installation anzustoßen; per Pedes (mit virt-manager) sollte es aber funktionieren.
+- Wenn die VM wegen Zugriffsfehler auf die virtuellen volumes nicht startet, können die Berechtigungen der übergeordneten Verzeichnisse Schuld sein -> hier mal schauen.
- Ein Schritt scheint nicht automagisierbar, hier werden isomaster & der user benötigt.
-- Beim ersten Start werden gelegentlich Laufwerke nicht akzeptiert.
- Bisher wird direkt die 64bit-Version ausgewählt.
diff --git a/loctevm-reset-iso.inc.yml b/loctevm-reset-iso.inc.yml
index 691b769..c2bc85e 100644
--- a/loctevm-reset-iso.inc.yml
+++ b/loctevm-reset-iso.inc.yml
@@ -73,21 +73,22 @@
delegate_to: 127.0.0.1 # local action
- name: manual intervention 1 - (re)install configs
- debug: msg=|
- *******************************
- *
- * MANUAL ACTION NEEDED (step 2)
- * -----------------------------
- * Please replace the files amdtxt.cfg and isolinux.cfg
- * in the iso-directory /isolinux
- * with the now patched files from host-directory {{ vm_path }} .
- * Likewise copy preseed.cfg from the host-directory {{ vm_path }}
- * to the iso-directory / .
- * Finally save-as this patched iso file
- * to debian-8.5.0-amd64-i386-{{ inventory_hostname }}.iso
- * in the host-directory {{ vm_path }} .
- *
- *******************************
+ debug:
+ msg: |
+ *******************************
+ *
+ * MANUAL ACTION NEEDED (step 2)
+ * -----------------------------
+ * Please replace the files amdtxt.cfg and isolinux.cfg
+ * in the iso-directory /isolinux
+ * with the now patched files from host-directory {{ vm_path }} .
+ * Likewise copy preseed.cfg from the host-directory {{ vm_path }}
+ * to the iso-directory / .
+ * Finally save-as this patched iso file
+ * to debian-8.5.0-amd64-i386-{{ inventory_hostname }}.iso
+ * in the host-directory {{ vm_path }} .
+ *
+ *******************************
delegate_to: 127.0.0.1 # local action
- name: wait for emergence of {{ vm_path }}/debian-8.5.0-amd64-i386-{{ inventory_hostname }}.iso
@@ -95,8 +96,16 @@
state=present timeout=900
delegate_to: 127.0.0.1 # local action
+ - name: allow some time for big file to be written
+ pause: seconds=5
+ delegate_to: 127.0.0.1 # local action
+
+ - name: correct access rights of iso file
+ file: mode=0644 path={{ vm_path }}/debian-8.5.0-amd64-i386-{{ inventory_hostname }}.iso state=file
+ delegate_to: 127.0.0.1 # local action
+
when: download.changed or not seeded.stat.exists
- # böock end
+ # block end
#- name: regenerate seeded copy when downloaded file changed
# copy:
diff --git a/loctevm-reset-prereq.inc.yml b/loctevm-reset-prereq.inc.yml
new file mode 100644
index 0000000..2e90e57
--- /dev/null
+++ b/loctevm-reset-prereq.inc.yml
@@ -0,0 +1,10 @@
+---
+
+# FIXME: do nothing for now
+# FIXME: how to learn about IP of VM ???
+
+#- name: prepare escalation
+# set_fact: ansible_become_pass=bloed
+#
+#- name: ensure admin user
+# user: comment=FFMWU Administrator name=admin state=present
diff --git a/loctevm-reset-vm.inc.yml b/loctevm-reset-vm.inc.yml
new file mode 100644
index 0000000..6e6b339
--- /dev/null
+++ b/loctevm-reset-vm.inc.yml
@@ -0,0 +1,24 @@
+---
+
+- name: find already defined local VMs
+ virt: command=list_vms
+ delegate_to: 127.0.0.1 # local action
+# become: True
+ register: vms
+
+- block:
+ - name: construct VM xml file
+ template:
+ src: templates/loctevm.xml
+ dest: "{{ vm_path }}/loctevm.xml"
+ delegate_to: 127.0.0.1 # local action
+
+ - name: define VM
+ virt:
+ command: define
+ name: "{{ inventory_hostname }}"
+ xml: "{{ lookup('file',vm_path ~ '/loctevm.xml') }}"
+ delegate_to: 127.0.0.1 # local action
+
+ when: not inventory_hostname in vms.list_vms
+ # block end
diff --git a/loctevm-reset.yml b/loctevm-reset.yml
index d65b7a0..6cf971e 100755
--- a/loctevm-reset.yml
+++ b/loctevm-reset.yml
@@ -12,43 +12,34 @@
tasks:
- name: ensure VM dir and vm image dir
- file: path={{ vm_path }} state=directory mode=0700
+ file: path={{ vm_path }} state=directory mode=0755
delegate_to: 127.0.0.1 # local action
- - name: exnsure image file
- command: fallocate -l 15G {{ vm_path }}/loctevm.img
+ - name: ensure image file # FIXME: change to rm + recreate
+ command: fallocate -l 10G {{ vm_path }}/loctevm.img # 15G? size?
args:
creates: "{{ vm_path }}/loctevm.img"
delegate_to: 127.0.0.1 # local action
+ - name: correct access rights of image file
+ file: mode=0666 path={{ vm_path }}/loctevm.img state=file
+ delegate_to: 127.0.0.1 # local action
+
- name: get and prepare debian image file
include: loctevm-reset-iso.inc.yml
- - name: find already defined local VMs
- virt: command=list_vms
- delegate_to: 127.0.0.1 # local action
- become: True
- register: vms
+ - name: define VM (if not already)
+ include: loctevm-reset-vm.inc.yml
- - block:
- - name: construct VM xml file
- template:
- src: templates/loctevm.xml
- dest: "{{ vm_path }}/loctevm.xml"
- delegate_to: 127.0.0.1 # local action
-
- - name: define VM
- virt:
- command: define
- name: "{{ inventory_hostname }}"
- xml: "{{ lookup('file',vm_path ~ '/loctevm.xml') }}"
- delegate_to: 127.0.0.1 # local action
-
- when: not inventory_hostname in vms.list_vms
- # block end
-
- - name: create VM
+ - name: create VM - should start OS installation
virt:
state: running
name: "{{ inventory_hostname }}"
delegate_to: 127.0.0.1 # local action
+
+- hosts: test-vms
+ remote_user: hein
+# become: True
+
+ - name: prepare VM (if not already)
+ include: loctevm-reset-prereq.inc.yml
diff --git a/templates/loctevm.xml b/templates/loctevm.xml
index e9f9ed8..0a4e19e 100644
--- a/templates/loctevm.xml
+++ b/templates/loctevm.xml
@@ -36,7 +36,7 @@
-
+