docs(provision): document initial URL
[arvados.git] / doc / install / install-keepstore.html.textile.liquid
1 ---
2 layout: default
3 navsection: installguide
4 title: Install Keepstore servers
5 ...
6 {% comment %}
7 Copyright (C) The Arvados Authors. All rights reserved.
8
9 SPDX-License-Identifier: CC-BY-SA-3.0
10 {% endcomment %}
11
12 # "Introduction":#introduction
13 # "Update config.yml":#update-config
14 # "Install keepstore package":#install-packages
15 # "Restart the API server and controller":#restart-api
16 # "Confirm working installation":#confirm-working
17 # "Note on storage management":#note
18
19 h2. Introduction
20
21 Keepstore provides access to underlying storage for reading and writing content-addressed blocks, with enforcement of Arvados permissions.  Keepstore supports a variety of cloud object storage and POSIX filesystems for its backing store.
22
23 h3. Plan your storage layout
24
25 In the steps below, you will configure a number of backend storage volumes (like local filesystems and S3 buckets) and specify which keepstore servers have read-only and read-write access to which volumes.
26
27 It is possible to configure arbitrary server/volume layouts. However, in order to provide good performance and efficient use of storage resources, we strongly recommend using one of the following layouts:
28
29 # Each volume is writable by exactly one server, and optionally readable by one or more other servers. The total capacity of all writable volumes is the same for each server.
30 # Each volume is writable by all servers. Each volume has enough built-in redundancy to satisfy your requirements, i.e., you do not need Arvados to mirror data across multiple volumes.
31
32 We recommend starting off with two Keepstore servers.  Exact server specifications will be site and workload specific, but in general keepstore will be I/O bound and should be set up to maximize aggregate bandwidth with compute nodes.  To increase capacity (either space or throughput) it is straightforward to add additional servers, or (in cloud environments) to increase the machine size of the existing servers.
33
34 By convention, we use the following hostname pattern:
35
36 <div class="offset1">
37 table(table table-bordered table-condensed).
38 |_. Hostname|
39 |@keep0.ClusterID.example.com@|
40 |@keep1.ClusterID.example.com@|
41 </div>
42
43 Keepstore servers should not be directly accessible from the Internet (they are accessed via "keepproxy":install-keepproxy.html), so the hostnames only need to resolve on the private network.
44
45 h2(#update-config). Update cluster config
46
47 h3. Configure storage volumes
48
49 Fill in the @Volumes@ section of @config.yml@ for each storage volume.  Available storage volume types include POSIX filesystems and cloud object storage.  It is possible to have different volume types in the same cluster.
50
51 * To use a POSIX filesystem, including both local filesystems (ext4, xfs) and network file system such as GPFS or Lustre, follow the setup instructions on "Filesystem storage":configure-fs-storage.html
52 * If you are using S3-compatible object storage (including Amazon S3, Google Cloud Storage, and Ceph RADOS), follow the setup instructions on "S3 Object Storage":configure-s3-object-storage.html
53 * If you are using Azure Blob Storage, follow the setup instructions on "Azure Blob Storage":configure-azure-blob-storage.html
54
55 There are a number of general configuration parameters for Keepstore. They are described in the "configuration reference":{{site.baseurl}}/admin/config.html. In particular, you probably want to change @API/MaxKeepBlobBuffers@ to align Keepstore's memory usage with the available memory on the machine that hosts it.
56
57 h3. List services
58
59 Add each keepstore server to the @Services.Keepstore@ section of @/etc/arvados/config.yml@ .
60
61 <notextile>
62 <pre><code>    Services:
63       Keepstore:
64         # No ExternalURL because they are only accessed by the internal subnet.
65         InternalURLs:
66           "http://<span class="userinput">keep0.ClusterID.example.com</span>:25107": {}
67           "http://<span class="userinput">keep1.ClusterID.example.com</span>:25107": {}
68           # and so forth
69 </code></pre>
70 </notextile>
71
72 {% assign arvados_component = 'keepstore' %}
73
74 {% include 'install_packages' %}
75
76 {% include 'start_service' %}
77
78 {% include 'restart_api' %}
79
80 h2(#confirm-working). Confirm working installation
81
82 Log into a host that is on your private Arvados network.  The host should be able to contact your your keepstore servers (eg keep[0-9].ClusterID.example.com).
83
84 @ARVADOS_API_HOST@ and @ARVADOS_API_TOKEN@ must be set in the environment.
85
86 @ARVADOS_API_HOST@ should be the hostname of the API server.
87
88 @ARVADOS_API_TOKEN@ should be the system root token.
89
90 Install the "Command line SDK":{{site.baseurl}}/sdk/cli/install.html
91
92 Check that the keepstore server is in the @keep_service@ "accessible" list:
93
94 <notextile>
95 <pre><code>
96 $ <span class="userinput">arv keep_service accessible</span>
97 [...]
98 </code></pre>
99 </notextile>
100
101 If keepstore does not show up in the "accessible" list, and you are accessing it from within the private network, check that you have "properly configured the @geo@ block for the API server":install-api-server.html#update-nginx .
102
103 Next, install the "Python SDK":{{site.baseurl}}/sdk/python/sdk-python.html
104
105 You should now be able to use @arv-put@ to upload collections and @arv-get@ to fetch collections.  Be sure to execute this from _inside_ the cluster's private network.  You will be able to access keep from _outside_ the private network after setting up "keepproxy":install-keepproxy.html .
106
107 {% include 'arv_put_example' %}
108
109 h2(#note). Note on storage management
110
111 On its own, a keepstore server never deletes data. Instead, the keep-balance service determines which blocks are candidates for deletion and instructs the keepstore to move those blocks to the trash. Please see the "Balancing Keep servers":{{site.baseurl}}/admin/keep-balance.html for more details.