Niektóre zasoby w Azure, jak np. managed identity mogą mieć kilka identyfikatorów, całkiem jak my: nr PESEL, numer dowodu, numer paszportu. Każdy z tych ID może być wykorzystywany tylko w określonej sytuacji. Oto główne różnice między id, principal_id i client_id w Azure dla managed identity:
Archiwum za miesiąc 2025-03
Azure: Terraform: id, principal_id, client_id
Spark 3.5.5 – instalacja w punktach
Zainstaluj Java JDK w wersji 17, np. do katalogu c:\spark\java Zainstaluj WinUtils w wersji 3.3.6 (jeśli używasz Windows 11) np do katalogu c:\spark\hadoop Zainstaluj Spark 3.5.5 z Hadoop 3.3, np. do katalogu c:\spark\spark Zainstaluj Python 3.11, np. do katalogu c:\spark\python. Wykonaj dodatkową kopię pliku python.exe i nazwij ją python3.exe Zdefiniuj zmienne środowiskowe np. dla użytkownika: […]
Spark – tworzenie środowiska
Zakładając, że masz już zainstalowany Apache Spark, a teraz chcesz zacząć na nim własne eksperymenty, to pewnie przydałoby się jakieś „lekkie” środowisko – miminum z działającym Jupyter Notebook. Oto moja propozycja W wybranym katalogu utwórz środowisko wirtualne Aktywuj je Zainstaluj moduły Uruchom Jupyter Notebook
Spark: Przykład prostego, małego data frame
Wykonując testy, warto mieć pod ręką coś małego, co powinno zawsze zadziałać. Oto moja propozycja: Snippet pochodzi z https://stackoverflow.com/questions/76743484/configuration-of-pyspark-py4jjavaerror
Spark: Błąd po wykonaniu df.show()
W świeżej instalacji Apache Spark po wykonaniu polecenia df.show() dla prostego data frame pojawiał się bład:Py4JJavaError: An error occurred while calling o160.showString.Instalacja nowa, robiona zgodnie z 1000 instrukcji dostępnych na necie. Bez owijania w bawełnę – chodziło o wersje aplikacji. Tak więc krótko: Instalacja dotyczy Spark 3.5.5 (FEB 27 2025) z wbudowanym Apache Hadoop 3.3 […]