13822: Don't call list_sizes() in cloud client constructor.
[arvados.git] / services / nodemanager / arvnodeman / computenode / driver / gce.py
1 #!/usr/bin/env python
2 # Copyright (C) The Arvados Authors. All rights reserved.
3 #
4 # SPDX-License-Identifier: AGPL-3.0
5
6 from __future__ import absolute_import, print_function
7
8 import functools
9 import json
10 import time
11
12 import libcloud.compute.providers as cloud_provider
13 import libcloud.compute.types as cloud_types
14
15 from . import BaseComputeNodeDriver
16 from .. import arvados_node_fqdn, arvados_timestamp, ARVADOS_TIMEFMT
17
18 class ComputeNodeDriver(BaseComputeNodeDriver):
19     """Compute node driver wrapper for GCE
20
21     This translates cloud driver requests to GCE's specific parameters.
22     """
23     DEFAULT_DRIVER = cloud_provider.get_driver(cloud_types.Provider.GCE)
24     SEARCH_CACHE = {}
25
26     def __init__(self, auth_kwargs, list_kwargs, create_kwargs,
27                  driver_class=DEFAULT_DRIVER):
28         list_kwargs = list_kwargs.copy()
29         tags_str = list_kwargs.pop('tags', '')
30         if not tags_str.strip():
31             self.node_tags = frozenset()
32         else:
33             self.node_tags = frozenset(t.strip() for t in tags_str.split(','))
34         create_kwargs = create_kwargs.copy()
35         create_kwargs.setdefault('external_ip', None)
36         create_kwargs.setdefault('ex_metadata', {})
37         self._project = auth_kwargs.get("project")
38         super(ComputeNodeDriver, self).__init__(
39             auth_kwargs, list_kwargs, create_kwargs,
40             driver_class)
41         self._disktype_links = {dt.name: self._object_link(dt)
42                                 for dt in self.real.ex_list_disktypes()}
43
44     @staticmethod
45     def _object_link(cloud_object):
46         return cloud_object.extra.get('selfLink')
47
48     def _init_image(self, image_name):
49         return 'image', self.search_for(
50             image_name, 'list_images', self._name_key, ex_project=self._project)
51
52     def _init_network(self, network_name):
53         return 'ex_network', self.search_for(
54             network_name, 'ex_list_networks', self._name_key)
55
56     def _init_service_accounts(self, service_accounts_str):
57         return 'ex_service_accounts', json.loads(service_accounts_str)
58
59     def _init_ssh_key(self, filename):
60         # SSH keys are delivered to GCE nodes via ex_metadata: see
61         # http://stackoverflow.com/questions/26752617/creating-sshkeys-for-gce-instance-using-libcloud
62         with open(filename) as ssh_file:
63             self.create_kwargs['ex_metadata']['sshKeys'] = (
64                 'root:' + ssh_file.read().strip())
65
66     def create_cloud_name(self, arvados_node):
67         uuid_parts = arvados_node['uuid'].split('-', 2)
68         return 'compute-{parts[2]}-{parts[0]}'.format(parts=uuid_parts)
69
70     def arvados_create_kwargs(self, size, arvados_node):
71         name = self.create_cloud_name(arvados_node)
72
73         if size.scratch > 375000:
74             self._logger.warning("Requested %d MB scratch space, but GCE driver currently only supports attaching a single 375 GB disk.", size.scratch)
75
76         disks = [
77             {'autoDelete': True,
78              'boot': True,
79              'deviceName': name,
80              'initializeParams':
81                  {'diskName': name,
82                   'diskType': self._disktype_links['pd-standard'],
83                   'sourceImage': self._object_link(self.create_kwargs['image']),
84                   },
85              'type': 'PERSISTENT',
86              },
87             {'autoDelete': True,
88              'boot': False,
89              # Boot images rely on this device name to find the SSD.
90              # Any change must be coordinated in the image.
91              'deviceName': 'tmp',
92              'initializeParams':
93                  {'diskType': self._disktype_links['local-ssd'],
94                   },
95              'type': 'SCRATCH',
96              },
97             ]
98         result = {'name': name,
99                   'ex_metadata': self.create_kwargs['ex_metadata'].copy(),
100                   'ex_tags': list(self.node_tags),
101                   'ex_disks_gce_struct': disks,
102                   }
103         result['ex_metadata'].update({
104                 'arv-ping-url': self._make_ping_url(arvados_node),
105                 'booted_at': time.strftime(ARVADOS_TIMEFMT, time.gmtime()),
106                 'hostname': arvados_node_fqdn(arvados_node),
107                 })
108         return result
109
110
111     def list_nodes(self):
112         # The GCE libcloud driver only supports filtering node lists by zone.
113         # Do our own filtering based on tag list.
114         nodelist = [node for node in
115                     super(ComputeNodeDriver, self).list_nodes()
116                     if self.node_tags.issubset(node.extra.get('tags', []))]
117         # As of 0.18, the libcloud GCE driver sets node.size to the size's name.
118         # It's supposed to be the actual size object.  Check that it's not,
119         # and monkeypatch the results when that's the case.
120         if nodelist and not hasattr(nodelist[0].size, 'id'):
121             for node in nodelist:
122                 node.size = self.sizes()[node.size]
123         return nodelist
124
125     @classmethod
126     def _find_metadata(cls, metadata_items, key):
127         # Given a list of two-item metadata dictonaries, return the one with
128         # the named key.  Raise KeyError if not found.
129         try:
130             return next(data_dict for data_dict in metadata_items
131                         if data_dict.get('key') == key)
132         except StopIteration:
133             raise KeyError(key)
134
135     @classmethod
136     def _get_metadata(cls, metadata_items, key, *default):
137         try:
138             return cls._find_metadata(metadata_items, key)['value']
139         except KeyError:
140             if default:
141                 return default[0]
142             raise
143
144     def sync_node(self, cloud_node, arvados_node):
145         # Update the cloud node record to ensure we have the correct metadata
146         # fingerprint.
147         cloud_node = self.real.ex_get_node(cloud_node.name, cloud_node.extra['zone'])
148
149         # We can't store the FQDN on the name attribute or anything like it,
150         # because (a) names are static throughout the node's life (so FQDN
151         # isn't available because we don't know it at node creation time) and
152         # (b) it can't contain dots.  Instead stash it in metadata.
153         hostname = arvados_node_fqdn(arvados_node)
154         metadata_req = cloud_node.extra['metadata'].copy()
155         metadata_items = metadata_req.setdefault('items', [])
156         try:
157             self._find_metadata(metadata_items, 'hostname')['value'] = hostname
158         except KeyError:
159             metadata_items.append({'key': 'hostname', 'value': hostname})
160
161         self.real.ex_set_node_metadata(cloud_node, metadata_items)
162
163     @classmethod
164     def node_fqdn(cls, node):
165         # See sync_node comment.
166         return cls._get_metadata(node.extra['metadata'].get('items', []),
167                                  'hostname', '')
168
169     @classmethod
170     def node_start_time(cls, node):
171         try:
172             return arvados_timestamp(cls._get_metadata(
173                     node.extra['metadata']['items'], 'booted_at'))
174         except KeyError:
175             return 0
176
177     @classmethod
178     def node_id(cls, node):
179         return node.id