/ / Hai bisogno di una soluzione per programmare i lavori di Spark - scala, apache-spark

Hai bisogno di una soluzione per programmare i lavori di Spark - scala, apache-spark

Sono nuovo di Spark. Nel nostro progetto,

  1. abbiamo convertito sette script PLSql in Scala-Spark.
  2. Gli script PLSql esistenti sono programmati come lavorisu Talend. Ogni lo script è programmato su un lavoro separato e questi sette lavori vengono eseguiti su una sequenza poiché solo dopo il completamento del primo lavoro, il secondo processo inizia e continua fino all'ultimo lavoro (settimo).

La mia squadra sta esplorando le possibilità diprogrammare i programmi Scala-Spark come lavori in altri modi. Uno dei suggerimenti era di convertire / scrivere lo stesso lavoro che è in esecuzione su Talend in Scala. Non ho idea se sia possibile. Quindi, qualcuno potrebbe farmi sapere se è possibile fare lo stesso su Scala.

risposte:

0 per risposta № 1

Puoi inviare il tuo lavoro di scintilla a Talend usandot Componente di sistema o tSSH. e ottenere il codice di risposta (codice di uscita) dal componente menzionato. Se il codice di uscita = 0 (Operazione riuscita), è possibile inviare il successivo lavoro spark. Abbiamo fatto lo stesso nel nostro progetto.