Saltar para o conteúdo principal
Versão Next 🚧

Integrações — JupyterLab

Visão geral das integrações

O chart tdp-jupyter integra com Apache Spark via tdpSparkIntegration e o subchart tdp-spark.

Spark

tdpSparkIntegration:
enabled: true
configMap:
sparkConfig:
"spark.executor.instances": "2"
"spark.executor.memory": "4g"
"spark.executor.cores": "3"

tdp-spark:
spark:
worker:
replicaCount: 2
resources:
limits:
cpu: 4
memory: 6Gi
Terminal input
helm upgrade --install <release> \
oci://registry.tecnisys.com.br/tdp/charts/tdp-jupyter \
-n <namespace> \
-f meu-values.yaml

Verificação

Terminal input
kubectl get configmap tdp-spark-jupyter-integration -n <namespace> -o yaml
kubectl get pods -n <namespace> -l app.kubernetes.io/name=spark

Limpeza

Terminal input
helm uninstall <release> -n <namespace>
kubectl delete configmap tdp-spark-jupyter-integration -n <namespace>

Catálogo Iceberg ou Hive Metastore no sparkConfig deste chart não fazem parte do escopo desta documentação; consulte os charts e a documentação de Spark/Iceberg no seu ambiente.