Integrações — JupyterLab
Visão geral das integrações
O chart tdp-jupyter integra com Apache Spark via tdpSparkIntegration e o subchart tdp-spark.
Spark
tdpSparkIntegration:
enabled: true
configMap:
sparkConfig:
"spark.executor.instances": "2"
"spark.executor.memory": "4g"
"spark.executor.cores": "3"
tdp-spark:
spark:
worker:
replicaCount: 2
resources:
limits:
cpu: 4
memory: 6Gi
Terminal input
helm upgrade --install <release> \
oci://registry.tecnisys.com.br/tdp/charts/tdp-jupyter \
-n <namespace> \
-f meu-values.yaml
Verificação
Terminal input
kubectl get configmap tdp-spark-jupyter-integration -n <namespace> -o yaml
kubectl get pods -n <namespace> -l app.kubernetes.io/name=spark
Limpeza
Terminal input
helm uninstall <release> -n <namespace>
kubectl delete configmap tdp-spark-jupyter-integration -n <namespace>
Catálogo Iceberg ou Hive Metastore no sparkConfig deste chart não fazem parte do escopo desta documentação; consulte os charts e a documentação de Spark/Iceberg no seu ambiente.