Staram się czytać mały txt-plik, który jest dodawany w postaci tabeli w bazie danych domyślnie w Databricks. Podczas próby odczytu pliku przez lokalny file API dostaję FileNotFoundError
ale mogę przeczytać ten sam plik, co i Spark RDD, za pomocą SparkContext.
Proszę, znajdź kod poniżej:
with open("/FileStore/tables/boringwords.txt", "r") as f_read:
for line in f_read:
print(line)
To daje mi błąd:
FileNotFoundError Traceback (most recent call last)
<command-2618449717515592> in <module>
----> 1 with open("dbfs:/FileStore/tables/boringwords.txt", "r") as f_read:
2 for line in f_read:
3 print(line)
FileNotFoundError: [Errno 2] No such file or directory: 'dbfs:/FileStore/tables/boringwords.txt'
Gdzie jak nie mam problemów z czytania pliku za pomocą SparkContext:
boring_words = sc.textFile("/FileStore/tables/boringwords.txt")
set(i.strip() for i in boring_words.collect())
I, zgodnie z oczekiwaniami, otrzymuję wynik powyższego bloku kodu:
Out[4]: {'mad',
'mobile',
'filename',
'circle',
'cookies',
'immigration',
'anticipated',
'editorials',
'review'}
Ja także uwagę na dokumentację DBFS tutaj, aby zrozumieć ograniczenia lokalnego plików API, ale nie miał pojęcia o tym problemie. Każda pomoc będzie bardzo wdzięczna. Dziękuję!