Merge branch 'master' into 3187-pipeline-instance-page
[arvados.git] / services / fuse / arvados_fuse / __init__.py
1 #
2 # FUSE driver for Arvados Keep
3 #
4
5 import os
6 import sys
7 import llfuse
8 from llfuse import FUSEError
9 import errno
10 import stat
11 import threading
12 import arvados
13 import pprint
14 import arvados.events
15 import re
16 import apiclient
17 import json
18 import logging
19 import time
20 import calendar
21 import threading
22 from arvados.util import portable_data_hash_pattern, uuid_pattern, collection_uuid_pattern, group_uuid_pattern, user_uuid_pattern, link_uuid_pattern
23
24 _logger = logging.getLogger('arvados.arvados_fuse')
25
26 class SafeApi(object):
27     '''Threadsafe wrapper for API object.  This stores and returns a different api
28     object per thread, because httplib2 which underlies apiclient is not
29     threadsafe.
30     '''
31
32     def __init__(self, config):
33         self.host = config.get('ARVADOS_API_HOST')
34         self.api_token = config.get('ARVADOS_API_TOKEN')
35         self.insecure = config.flag_is_true('ARVADOS_API_HOST_INSECURE')
36         self.local = threading.local()
37         self.block_cache = arvados.KeepBlockCache()
38
39     def localapi(self):
40         if 'api' not in self.local.__dict__:
41             self.local.api = arvados.api('v1', False, self.host,
42                                          self.api_token, self.insecure)
43         return self.local.api
44
45     def localkeep(self):
46         if 'keep' not in self.local.__dict__:
47             self.local.keep = arvados.KeepClient(api_client=self.localapi(), block_cache=self.block_cache)
48         return self.local.keep
49
50     def __getattr__(self, name):
51         # Proxy nonexistent attributes to the local API client.
52         try:
53             return getattr(self.localapi(), name)
54         except AttributeError:
55             return super(SafeApi, self).__getattr__(name)
56
57
58 def convertTime(t):
59     '''Parse Arvados timestamp to unix time.'''
60     try:
61         return calendar.timegm(time.strptime(t, "%Y-%m-%dT%H:%M:%SZ"))
62     except (TypeError, ValueError):
63         return 0
64
65 def sanitize_filename(dirty):
66     '''Remove troublesome characters from filenames.'''
67     # http://www.dwheeler.com/essays/fixing-unix-linux-filenames.html
68     if dirty is None:
69         return None
70
71     fn = ""
72     for c in dirty:
73         if (c >= '\x00' and c <= '\x1f') or c == '\x7f' or c == '/':
74             # skip control characters and /
75             continue
76         fn += c
77
78     # strip leading - or ~ and leading/trailing whitespace
79     stripped = fn.lstrip("-~ ").rstrip()
80     if len(stripped) > 0:
81         return stripped
82     else:
83         return None
84
85
86 class FreshBase(object):
87     '''Base class for maintaining fresh/stale state to determine when to update.'''
88     def __init__(self):
89         self._stale = True
90         self._poll = False
91         self._last_update = time.time()
92         self._atime = time.time()
93         self._poll_time = 60
94
95     # Mark the value as stale
96     def invalidate(self):
97         self._stale = True
98
99     # Test if the entries dict is stale.
100     def stale(self):
101         if self._stale:
102             return True
103         if self._poll:
104             return (self._last_update + self._poll_time) < self._atime
105         return False
106
107     def fresh(self):
108         self._stale = False
109         self._last_update = time.time()
110
111     def atime(self):
112         return self._atime
113
114 class File(FreshBase):
115     '''Base for file objects.'''
116
117     def __init__(self, parent_inode, _mtime=0):
118         super(File, self).__init__()
119         self.inode = None
120         self.parent_inode = parent_inode
121         self._mtime = _mtime
122
123     def size(self):
124         return 0
125
126     def readfrom(self, off, size):
127         return ''
128
129     def mtime(self):
130         return self._mtime
131
132
133 class StreamReaderFile(File):
134     '''Wraps a StreamFileReader as a file.'''
135
136     def __init__(self, parent_inode, reader, _mtime):
137         super(StreamReaderFile, self).__init__(parent_inode, _mtime)
138         self.reader = reader
139
140     def size(self):
141         return self.reader.size()
142
143     def readfrom(self, off, size):
144         return self.reader.readfrom(off, size)
145
146     def stale(self):
147         return False
148
149
150 class StringFile(File):
151     '''Wrap a simple string as a file'''
152     def __init__(self, parent_inode, contents, _mtime):
153         super(StringFile, self).__init__(parent_inode, _mtime)
154         self.contents = contents
155
156     def size(self):
157         return len(self.contents)
158
159     def readfrom(self, off, size):
160         return self.contents[off:(off+size)]
161
162
163 class ObjectFile(StringFile):
164     '''Wrap a dict as a serialized json object.'''
165
166     def __init__(self, parent_inode, obj):
167         super(ObjectFile, self).__init__(parent_inode, "", 0)
168         self.uuid = obj['uuid']
169         self.update(obj)
170
171     def update(self, obj):
172         self._mtime = convertTime(obj['modified_at']) if 'modified_at' in obj else 0
173         self.contents = json.dumps(obj, indent=4, sort_keys=True) + "\n"
174
175
176 class Directory(FreshBase):
177     '''Generic directory object, backed by a dict.
178     Consists of a set of entries with the key representing the filename
179     and the value referencing a File or Directory object.
180     '''
181
182     def __init__(self, parent_inode):
183         super(Directory, self).__init__()
184
185         '''parent_inode is the integer inode number'''
186         self.inode = None
187         if not isinstance(parent_inode, int):
188             raise Exception("parent_inode should be an int")
189         self.parent_inode = parent_inode
190         self._entries = {}
191         self._mtime = time.time()
192
193     #  Overriden by subclasses to implement logic to update the entries dict
194     #  when the directory is stale
195     def update(self):
196         pass
197
198     # Only used when computing the size of the disk footprint of the directory
199     # (stub)
200     def size(self):
201         return 0
202
203     def checkupdate(self):
204         if self.stale():
205             try:
206                 self.update()
207             except apiclient.errors.HttpError as e:
208                 _logger.debug(e)
209
210     def __getitem__(self, item):
211         self.checkupdate()
212         return self._entries[item]
213
214     def items(self):
215         self.checkupdate()
216         return self._entries.items()
217
218     def __iter__(self):
219         self.checkupdate()
220         return self._entries.iterkeys()
221
222     def __contains__(self, k):
223         self.checkupdate()
224         return k in self._entries
225
226     def merge(self, items, fn, same, new_entry):
227         '''Helper method for updating the contents of the directory.  Takes a list
228         describing the new contents of the directory, reuse entries that are
229         the same in both the old and new lists, create new entries, and delete
230         old entries missing from the new list.
231
232         items: iterable with new directory contents
233
234         fn: function to take an entry in 'items' and return the desired file or
235         directory name, or None if this entry should be skipped
236
237         same: function to compare an existing entry (a File or Directory
238         object) with an entry in the items list to determine whether to keep
239         the existing entry.
240
241         new_entry: function to create a new directory entry (File or Directory
242         object) from an entry in the items list.
243
244         '''
245
246         oldentries = self._entries
247         self._entries = {}
248         changed = False
249         for i in items:
250             name = sanitize_filename(fn(i))
251             if name:
252                 if name in oldentries and same(oldentries[name], i):
253                     # move existing directory entry over
254                     self._entries[name] = oldentries[name]
255                     del oldentries[name]
256                 else:
257                     # create new directory entry
258                     ent = new_entry(i)
259                     if ent is not None:
260                         self._entries[name] = self.inodes.add_entry(ent)
261                         changed = True
262
263         # delete any other directory entries that were not in found in 'items'
264         for i in oldentries:
265             llfuse.invalidate_entry(self.inode, str(i))
266             self.inodes.del_entry(oldentries[i])
267             changed = True
268
269         if changed:
270             self._mtime = time.time()
271
272         self.fresh()
273
274     def clear(self):
275         '''Delete all entries'''
276         oldentries = self._entries
277         self._entries = {}
278         for n in oldentries:
279             if isinstance(n, Directory):
280                 n.clear()
281             llfuse.invalidate_entry(self.inode, str(n))
282             self.inodes.del_entry(oldentries[n])
283         self.invalidate()
284
285     def mtime(self):
286         return self._mtime
287
288
289 class CollectionDirectory(Directory):
290     '''Represents the root of a directory tree holding a collection.'''
291
292     def __init__(self, parent_inode, inodes, api, num_retries, collection):
293         super(CollectionDirectory, self).__init__(parent_inode)
294         self.inodes = inodes
295         self.api = api
296         self.num_retries = num_retries
297         self.collection_object_file = None
298         self.collection_object = None
299         if isinstance(collection, dict):
300             self.collection_locator = collection['uuid']
301         else:
302             self.collection_locator = collection
303
304     def same(self, i):
305         return i['uuid'] == self.collection_locator or i['portable_data_hash'] == self.collection_locator
306
307     def new_collection(self, new_collection_object):
308         self.collection_object = new_collection_object
309
310         if self.collection_object_file is not None:
311             self.collection_object_file.update(self.collection_object)
312
313         self.clear()
314         collection = arvados.CollectionReader(
315             self.collection_object["manifest_text"], self.api,
316             self.api.localkeep(), num_retries=self.num_retries)
317         for s in collection.all_streams():
318             cwd = self
319             for part in s.name().split('/'):
320                 if part != '' and part != '.':
321                     partname = sanitize_filename(part)
322                     if partname not in cwd._entries:
323                         cwd._entries[partname] = self.inodes.add_entry(Directory(cwd.inode))
324                     cwd = cwd._entries[partname]
325             for k, v in s.files().items():
326                 cwd._entries[sanitize_filename(k)] = self.inodes.add_entry(StreamReaderFile(cwd.inode, v, self.mtime()))
327
328     def update(self):
329         try:
330             if self.collection_object is not None and portable_data_hash_pattern.match(self.collection_locator):
331                 return True
332
333             with llfuse.lock_released:
334                 new_collection_object = self.api.collections().get(
335                     uuid=self.collection_locator
336                     ).execute(num_retries=self.num_retries)
337                 if "portable_data_hash" not in new_collection_object:
338                     new_collection_object["portable_data_hash"] = new_collection_object["uuid"]
339             # end with llfuse.lock_released, re-acquire lock
340
341             if self.collection_object is None or self.collection_object["portable_data_hash"] != new_collection_object["portable_data_hash"]:
342                 self.new_collection(new_collection_object)
343
344             self.fresh()
345             return True
346         except apiclient.errors.HttpError as e:
347             if e.resp.status == 404:
348                 _logger.warn("arv-mount %s: not found", self.collection_locator)
349             else:
350                 _logger.error("arv-mount %s: error", self.collection_locator)
351                 _logger.exception(detail)
352         except arvados.errors.ArgumentError as detail:
353             _logger.warning("arv-mount %s: error %s", self.collection_locator, detail)
354             if self.collection_object is not None and "manifest_text" in self.collection_object:
355                 _logger.warning("arv-mount manifest_text is: %s", self.collection_object["manifest_text"])
356         except Exception as detail:
357             _logger.error("arv-mount %s: error", self.collection_locator)
358             if self.collection_object is not None and "manifest_text" in self.collection_object:
359                 _logger.error("arv-mount manifest_text is: %s", self.collection_object["manifest_text"])
360             _logger.exception(detail)
361         return False
362
363     def __getitem__(self, item):
364         self.checkupdate()
365         if item == '.arvados#collection':
366             if self.collection_object_file is None:
367                 self.collection_object_file = ObjectFile(self.inode, self.collection_object)
368                 self.inodes.add_entry(self.collection_object_file)
369             return self.collection_object_file
370         else:
371             return super(CollectionDirectory, self).__getitem__(item)
372
373     def __contains__(self, k):
374         if k == '.arvados#collection':
375             return True
376         else:
377             return super(CollectionDirectory, self).__contains__(k)
378
379     def mtime(self):
380         self.checkupdate()
381         return convertTime(self.collection_object["modified_at"]) if self.collection_object is not None and 'modified_at' in self.collection_object else 0
382
383
384 class MagicDirectory(Directory):
385     '''A special directory that logically contains the set of all extant keep
386     locators.  When a file is referenced by lookup(), it is tested to see if it
387     is a valid keep locator to a manifest, and if so, loads the manifest
388     contents as a subdirectory of this directory with the locator as the
389     directory name.  Since querying a list of all extant keep locators is
390     impractical, only collections that have already been accessed are visible
391     to readdir().
392     '''
393
394     def __init__(self, parent_inode, inodes, api, num_retries):
395         super(MagicDirectory, self).__init__(parent_inode)
396         self.inodes = inodes
397         self.api = api
398         self.num_retries = num_retries
399         # Have to defer creating readme_file because at this point we don't
400         # yet have an inode assigned.
401         self.readme_file = None
402
403     def create_readme(self):
404         if self.readme_file is None:
405             text = '''This directory provides access to Arvados collections as subdirectories listed
406 by uuid (in the form 'zzzzz-4zz18-1234567890abcde') or portable data hash (in
407 the form '1234567890abcdefghijklmnopqrstuv+123').
408
409 Note that this directory will appear empty until you attempt to access a
410 specific collection subdirectory (such as trying to 'cd' into it), at which
411 point the collection will actually be looked up on the server and the directory
412 will appear if it exists.
413 '''
414             self.readme_file = self.inodes.add_entry(StringFile(self.inode, text, time.time()))
415             self._entries["README"] = self.readme_file
416
417     def __contains__(self, k):
418         self.create_readme()
419
420         if k in self._entries:
421             return True
422
423         if not portable_data_hash_pattern.match(k) and not uuid_pattern.match(k):
424             return False
425
426         try:
427             e = self.inodes.add_entry(CollectionDirectory(
428                     self.inode, self.inodes, self.api, self.num_retries, k))
429             if e.update():
430                 self._entries[k] = e
431                 return True
432             else:
433                 return False
434         except Exception as e:
435             _logger.debug('arv-mount exception keep %s', e)
436             return False
437
438     def items(self):
439         self.create_readme()
440         return self._entries.items()
441
442     def __getitem__(self, item):
443         if item in self:
444             return self._entries[item]
445         else:
446             raise KeyError("No collection with id " + item)
447
448
449 class RecursiveInvalidateDirectory(Directory):
450     def invalidate(self):
451         if self.inode == llfuse.ROOT_INODE:
452             llfuse.lock.acquire()
453         try:
454             super(RecursiveInvalidateDirectory, self).invalidate()
455             for a in self._entries:
456                 self._entries[a].invalidate()
457         except Exception as e:
458             _logger.exception(e)
459         finally:
460             if self.inode == llfuse.ROOT_INODE:
461                 llfuse.lock.release()
462
463
464 class TagsDirectory(RecursiveInvalidateDirectory):
465     '''A special directory that contains as subdirectories all tags visible to the user.'''
466
467     def __init__(self, parent_inode, inodes, api, num_retries, poll_time=60):
468         super(TagsDirectory, self).__init__(parent_inode)
469         self.inodes = inodes
470         self.api = api
471         self.num_retries = num_retries
472         self._poll = True
473         self._poll_time = poll_time
474
475     def update(self):
476         with llfuse.lock_released:
477             tags = self.api.links().list(
478                 filters=[['link_class', '=', 'tag']],
479                 select=['name'], distinct=True
480                 ).execute(num_retries=self.num_retries)
481         if "items" in tags:
482             self.merge(tags['items'],
483                        lambda i: i['name'] if 'name' in i else i['uuid'],
484                        lambda a, i: a.tag == i,
485                        lambda i: TagDirectory(self.inode, self.inodes, self.api, self.num_retries, i['name'], poll=self._poll, poll_time=self._poll_time))
486
487
488 class TagDirectory(Directory):
489     '''A special directory that contains as subdirectories all collections visible
490     to the user that are tagged with a particular tag.
491     '''
492
493     def __init__(self, parent_inode, inodes, api, num_retries, tag,
494                  poll=False, poll_time=60):
495         super(TagDirectory, self).__init__(parent_inode)
496         self.inodes = inodes
497         self.api = api
498         self.num_retries = num_retries
499         self.tag = tag
500         self._poll = poll
501         self._poll_time = poll_time
502
503     def update(self):
504         with llfuse.lock_released:
505             taggedcollections = self.api.links().list(
506                 filters=[['link_class', '=', 'tag'],
507                          ['name', '=', self.tag],
508                          ['head_uuid', 'is_a', 'arvados#collection']],
509                 select=['head_uuid']
510                 ).execute(num_retries=self.num_retries)
511         self.merge(taggedcollections['items'],
512                    lambda i: i['head_uuid'],
513                    lambda a, i: a.collection_locator == i['head_uuid'],
514                    lambda i: CollectionDirectory(self.inode, self.inodes, self.api, self.num_retries, i['head_uuid']))
515
516
517 class ProjectDirectory(Directory):
518     '''A special directory that contains the contents of a project.'''
519
520     def __init__(self, parent_inode, inodes, api, num_retries, project_object,
521                  poll=False, poll_time=60):
522         super(ProjectDirectory, self).__init__(parent_inode)
523         self.inodes = inodes
524         self.api = api
525         self.num_retries = num_retries
526         self.project_object = project_object
527         self.project_object_file = None
528         self.uuid = project_object['uuid']
529
530     def createDirectory(self, i):
531         if collection_uuid_pattern.match(i['uuid']):
532             return CollectionDirectory(self.inode, self.inodes, self.api, self.num_retries, i)
533         elif group_uuid_pattern.match(i['uuid']):
534             return ProjectDirectory(self.inode, self.inodes, self.api, self.num_retries, i, self._poll, self._poll_time)
535         elif link_uuid_pattern.match(i['uuid']):
536             if i['head_kind'] == 'arvados#collection' or portable_data_hash_pattern.match(i['head_uuid']):
537                 return CollectionDirectory(self.inode, self.inodes, self.api, self.num_retries, i['head_uuid'])
538             else:
539                 return None
540         elif uuid_pattern.match(i['uuid']):
541             return ObjectFile(self.parent_inode, i)
542         else:
543             return None
544
545     def update(self):
546         if self.project_object_file == None:
547             self.project_object_file = ObjectFile(self.inode, self.project_object)
548             self.inodes.add_entry(self.project_object_file)
549
550         def namefn(i):
551             if 'name' in i:
552                 if i['name'] is None or len(i['name']) == 0:
553                     return None
554                 elif collection_uuid_pattern.match(i['uuid']) or group_uuid_pattern.match(i['uuid']):
555                     # collection or subproject
556                     return i['name']
557                 elif link_uuid_pattern.match(i['uuid']) and i['head_kind'] == 'arvados#collection':
558                     # name link
559                     return i['name']
560                 elif 'kind' in i and i['kind'].startswith('arvados#'):
561                     # something else
562                     return "{}.{}".format(i['name'], i['kind'][8:])
563             else:
564                 return None
565
566         def samefn(a, i):
567             if isinstance(a, CollectionDirectory):
568                 return a.collection_locator == i['uuid']
569             elif isinstance(a, ProjectDirectory):
570                 return a.uuid == i['uuid']
571             elif isinstance(a, ObjectFile):
572                 return a.uuid == i['uuid'] and not a.stale()
573             return False
574
575         with llfuse.lock_released:
576             if group_uuid_pattern.match(self.uuid):
577                 self.project_object = self.api.groups().get(
578                     uuid=self.uuid).execute(num_retries=self.num_retries)
579             elif user_uuid_pattern.match(self.uuid):
580                 self.project_object = self.api.users().get(
581                     uuid=self.uuid).execute(num_retries=self.num_retries)
582
583             contents = arvados.util.list_all(self.api.groups().contents,
584                                              self.num_retries, uuid=self.uuid)
585             # Name links will be obsolete soon, take this out when there are no more pre-#3036 in use.
586             contents += arvados.util.list_all(
587                 self.api.links().list, self.num_retries,
588                 filters=[['tail_uuid', '=', self.uuid],
589                          ['link_class', '=', 'name']])
590
591         # end with llfuse.lock_released, re-acquire lock
592
593         self.merge(contents,
594                    namefn,
595                    samefn,
596                    self.createDirectory)
597
598     def __getitem__(self, item):
599         self.checkupdate()
600         if item == '.arvados#project':
601             return self.project_object_file
602         else:
603             return super(ProjectDirectory, self).__getitem__(item)
604
605     def __contains__(self, k):
606         if k == '.arvados#project':
607             return True
608         else:
609             return super(ProjectDirectory, self).__contains__(k)
610
611
612 class SharedDirectory(Directory):
613     '''A special directory that represents users or groups who have shared projects with me.'''
614
615     def __init__(self, parent_inode, inodes, api, num_retries, exclude,
616                  poll=False, poll_time=60):
617         super(SharedDirectory, self).__init__(parent_inode)
618         self.inodes = inodes
619         self.api = api
620         self.num_retries = num_retries
621         self.current_user = api.users().current().execute(num_retries=num_retries)
622         self._poll = True
623         self._poll_time = poll_time
624
625     def update(self):
626         with llfuse.lock_released:
627             all_projects = arvados.util.list_all(
628                 self.api.groups().list, self.num_retries,
629                 filters=[['group_class','=','project']])
630             objects = {}
631             for ob in all_projects:
632                 objects[ob['uuid']] = ob
633
634             roots = []
635             root_owners = {}
636             for ob in all_projects:
637                 if ob['owner_uuid'] != self.current_user['uuid'] and ob['owner_uuid'] not in objects:
638                     roots.append(ob)
639                     root_owners[ob['owner_uuid']] = True
640
641             lusers = arvados.util.list_all(
642                 self.api.users().list, self.num_retries,
643                 filters=[['uuid','in', list(root_owners)]])
644             lgroups = arvados.util.list_all(
645                 self.api.groups().list, self.num_retries,
646                 filters=[['uuid','in', list(root_owners)]])
647
648             users = {}
649             groups = {}
650
651             for l in lusers:
652                 objects[l["uuid"]] = l
653             for l in lgroups:
654                 objects[l["uuid"]] = l
655
656             contents = {}
657             for r in root_owners:
658                 if r in objects:
659                     obr = objects[r]
660                     if "name" in obr:
661                         contents[obr["name"]] = obr
662                     if "first_name" in obr:
663                         contents[u"{} {}".format(obr["first_name"], obr["last_name"])] = obr
664
665             for r in roots:
666                 if r['owner_uuid'] not in objects:
667                     contents[r['name']] = r
668
669         # end with llfuse.lock_released, re-acquire lock
670
671         try:
672             self.merge(contents.items(),
673                        lambda i: i[0],
674                        lambda a, i: a.uuid == i[1]['uuid'],
675                        lambda i: ProjectDirectory(self.inode, self.inodes, self.api, self.num_retries, i[1], poll=self._poll, poll_time=self._poll_time))
676         except Exception as e:
677             _logger.exception(e)
678
679
680 class FileHandle(object):
681     '''Connects a numeric file handle to a File or Directory object that has
682     been opened by the client.'''
683
684     def __init__(self, fh, entry):
685         self.fh = fh
686         self.entry = entry
687
688
689 class Inodes(object):
690     '''Manage the set of inodes.  This is the mapping from a numeric id
691     to a concrete File or Directory object'''
692
693     def __init__(self):
694         self._entries = {}
695         self._counter = llfuse.ROOT_INODE
696
697     def __getitem__(self, item):
698         return self._entries[item]
699
700     def __setitem__(self, key, item):
701         self._entries[key] = item
702
703     def __iter__(self):
704         return self._entries.iterkeys()
705
706     def items(self):
707         return self._entries.items()
708
709     def __contains__(self, k):
710         return k in self._entries
711
712     def add_entry(self, entry):
713         entry.inode = self._counter
714         self._entries[entry.inode] = entry
715         self._counter += 1
716         return entry
717
718     def del_entry(self, entry):
719         llfuse.invalidate_inode(entry.inode)
720         del self._entries[entry.inode]
721
722 class Operations(llfuse.Operations):
723     '''This is the main interface with llfuse.  The methods on this object are
724     called by llfuse threads to service FUSE events to query and read from
725     the file system.
726
727     llfuse has its own global lock which is acquired before calling a request handler,
728     so request handlers do not run concurrently unless the lock is explicitly released
729     using "with llfuse.lock_released:"'''
730
731     def __init__(self, uid, gid):
732         super(Operations, self).__init__()
733
734         self.inodes = Inodes()
735         self.uid = uid
736         self.gid = gid
737
738         # dict of inode to filehandle
739         self._filehandles = {}
740         self._filehandles_counter = 1
741
742         # Other threads that need to wait until the fuse driver
743         # is fully initialized should wait() on this event object.
744         self.initlock = threading.Event()
745
746     def init(self):
747         # Allow threads that are waiting for the driver to be finished
748         # initializing to continue
749         self.initlock.set()
750
751     def access(self, inode, mode, ctx):
752         return True
753
754     def getattr(self, inode):
755         if inode not in self.inodes:
756             raise llfuse.FUSEError(errno.ENOENT)
757
758         e = self.inodes[inode]
759
760         entry = llfuse.EntryAttributes()
761         entry.st_ino = inode
762         entry.generation = 0
763         entry.entry_timeout = 300
764         entry.attr_timeout = 300
765
766         entry.st_mode = stat.S_IRUSR | stat.S_IRGRP | stat.S_IROTH
767         if isinstance(e, Directory):
768             entry.st_mode |= stat.S_IXUSR | stat.S_IXGRP | stat.S_IXOTH | stat.S_IFDIR
769         else:
770             entry.st_mode |= stat.S_IFREG
771
772         entry.st_nlink = 1
773         entry.st_uid = self.uid
774         entry.st_gid = self.gid
775         entry.st_rdev = 0
776
777         entry.st_size = e.size()
778
779         entry.st_blksize = 512
780         entry.st_blocks = (e.size()/512)+1
781         entry.st_atime = int(e.atime())
782         entry.st_mtime = int(e.mtime())
783         entry.st_ctime = int(e.mtime())
784
785         return entry
786
787     def lookup(self, parent_inode, name):
788         _logger.debug("arv-mount lookup: parent_inode %i name %s",
789                       parent_inode, name)
790         inode = None
791
792         if name == '.':
793             inode = parent_inode
794         else:
795             if parent_inode in self.inodes:
796                 p = self.inodes[parent_inode]
797                 if name == '..':
798                     inode = p.parent_inode
799                 elif isinstance(p, Directory) and name in p:
800                     inode = p[name].inode
801
802         if inode != None:
803             return self.getattr(inode)
804         else:
805             raise llfuse.FUSEError(errno.ENOENT)
806
807     def open(self, inode, flags):
808         if inode in self.inodes:
809             p = self.inodes[inode]
810         else:
811             raise llfuse.FUSEError(errno.ENOENT)
812
813         if (flags & os.O_WRONLY) or (flags & os.O_RDWR):
814             raise llfuse.FUSEError(errno.EROFS)
815
816         if isinstance(p, Directory):
817             raise llfuse.FUSEError(errno.EISDIR)
818
819         fh = self._filehandles_counter
820         self._filehandles_counter += 1
821         self._filehandles[fh] = FileHandle(fh, p)
822         return fh
823
824     def read(self, fh, off, size):
825         _logger.debug("arv-mount read %i %i %i", fh, off, size)
826         if fh in self._filehandles:
827             handle = self._filehandles[fh]
828         else:
829             raise llfuse.FUSEError(errno.EBADF)
830
831         # update atime
832         handle.entry._atime = time.time()
833
834         try:
835             with llfuse.lock_released:
836                 return handle.entry.readfrom(off, size)
837         except arvados.errors.NotFoundError as e:
838             _logger.warning("Block not found: " + str(e))
839             raise llfuse.FUSEError(errno.EIO)
840         except Exception as e:
841             _logger.exception(e)
842             raise llfuse.FUSEError(errno.EIO)
843
844     def release(self, fh):
845         if fh in self._filehandles:
846             del self._filehandles[fh]
847
848     def opendir(self, inode):
849         _logger.debug("arv-mount opendir: inode %i", inode)
850
851         if inode in self.inodes:
852             p = self.inodes[inode]
853         else:
854             raise llfuse.FUSEError(errno.ENOENT)
855
856         if not isinstance(p, Directory):
857             raise llfuse.FUSEError(errno.ENOTDIR)
858
859         fh = self._filehandles_counter
860         self._filehandles_counter += 1
861         if p.parent_inode in self.inodes:
862             parent = self.inodes[p.parent_inode]
863         else:
864             raise llfuse.FUSEError(errno.EIO)
865
866         # update atime
867         p._atime = time.time()
868
869         self._filehandles[fh] = FileHandle(fh, [('.', p), ('..', parent)] + list(p.items()))
870         return fh
871
872     def readdir(self, fh, off):
873         _logger.debug("arv-mount readdir: fh %i off %i", fh, off)
874
875         if fh in self._filehandles:
876             handle = self._filehandles[fh]
877         else:
878             raise llfuse.FUSEError(errno.EBADF)
879
880         _logger.debug("arv-mount handle.entry %s", handle.entry)
881
882         e = off
883         while e < len(handle.entry):
884             if handle.entry[e][1].inode in self.inodes:
885                 yield (handle.entry[e][0], self.getattr(handle.entry[e][1].inode), e+1)
886             e += 1
887
888     def releasedir(self, fh):
889         del self._filehandles[fh]
890
891     def statfs(self):
892         st = llfuse.StatvfsData()
893         st.f_bsize = 64 * 1024
894         st.f_blocks = 0
895         st.f_files = 0
896
897         st.f_bfree = 0
898         st.f_bavail = 0
899
900         st.f_ffree = 0
901         st.f_favail = 0
902
903         st.f_frsize = 0
904         return st
905
906     # The llfuse documentation recommends only overloading functions that
907     # are actually implemented, as the default implementation will raise ENOSYS.
908     # However, there is a bug in the llfuse default implementation of create()
909     # "create() takes exactly 5 positional arguments (6 given)" which will crash
910     # arv-mount.
911     # The workaround is to implement it with the proper number of parameters,
912     # and then everything works out.
913     def create(self, p1, p2, p3, p4, p5):
914         raise llfuse.FUSEError(errno.EROFS)