Niektóre zasoby w Azure, jak np. managed identity mogą mieć kilka identyfikatorów, całkiem jak my: nr PESEL, numer dowodu, numer paszportu. Każdy z tych ID może być wykorzystywany tylko w określonej sytuacji. Oto główne różnice między id, principal_id i client_id w Azure dla managed identity:
Archiwum dla kategorii ‘SQL’
Azure: Terraform: id, principal_id, client_id
Spark – tworzenie środowiska
Zakładając, że masz już zainstalowany Apache Spark, a teraz chcesz zacząć na nim własne eksperymenty, to pewnie przydałoby się jakieś „lekkie” środowisko – miminum z działającym Jupyter Notebook. Oto moja propozycja W wybranym katalogu utwórz środowisko wirtualne Aktywuj je Zainstaluj moduły Uruchom Jupyter Notebook
Azure: LogAnalyticsWorkspace: Wyszukiwanie zdarzeń
Log Analytics Workspace to taki „Azurowy śmietniczek na logi”. Z jednej strony koncepcja zapisywania wszystkich logów w jednym miejscu brzmi atrakcyjnie, ale korzystanie z tagiego zbioru… delikatnie mówiąc nie jest zbyt wygodne. Ogólnie rzecz biorąc, LogAnalytics przechowuje tabele z danymi i to już jest w sumie krok we właściwą stronę, bo jednak nasze logi są […]
PostgreSQL: ERROR: invalid input value for enum mpaa_rating: „PG56x”PostgreSQL:
Taki bład pojawi się, jeśli tabela wykorzystuje typ enum. Typ enum określa jakie wartości można wprowadzić do danej kolumny. Typ definiuje się np. komendą: CREATE TYPE public.mpaa_rating AS ENUM(’G’, 'PG’, 'PG-13′, 'R’, 'NC-17′); Jeśli chcesz dodać kolejną dopuszczalną wartość użyj polecenia; ALTER TYPE public.mpaa_rating ADD VALUE IF NOT EXISTS 'PG56′ AFTER 'NC-17′
Azure: Debugowanie function app
Tworzenie aplikacji na Azure w postaci kodu uruchamianego „serverless” jest popularne wśród klientów. Problem tylko w tym, że zdiagnozowanie problemu może być dość kłopotliwe. Owszem, można konfigurować application insights, które znacznie ten proces ułatwiają, ale co zrobić, jeśli klient zdecydował się nie korzystać z tej funkcjonlności? Bo za dorogo, bo nie widzi wartościw dobrym diagnozowaniu […]
PowerShell: grep
Oj, brakuje pod Windows prostej funkcji grep, ale skoro jest PowerShell, to można sobie taką funkcję zrobić samemu!
Azure: MS Fabric i Spark Notebooks
Apache Spark (spark) pracuje na obiektach data frame podobnych do tych z Pandas, ale zoptymalizowanych do pracy z Spark engine. Tutaj wczytujemy (read) plik csv (format), który w pierwszym wierszu ma nagłówek (option) z pliku (load): Plik CSV może nie mieć nagłówka i wtedy po jego wczytaniu kolumny będą miały nazwy _c01, _c02, … Dlatego […]