PreProcess n file contemporaneamente con tf.data API

voglio usare tf.data.experimental.parallel_interleave per preelaborare contemporaneamente i file n. cycle_length argomento è usato per questo scopo, ma qual è il valore massimo di questo argomento? la mia CPU ha 8 core e 16 thread.

EN From: Preprocess n files concurrently with tf.data API

More similar articles:

1 Comment

  1. come da docs ufficiale su tf.data.experimental.Parallel _ interleave

    Unlike tf.data.Dataset.interleave, it gets elements from cycle_length
    nested datasets in parallel

    e e e e e

    cycle_length: The number of input Datasets to interleave from in
    parallel.

    quindi, fondamentalmente, un argomento ragionevole sarebbe il numero di elementi di dataset, che sarebbero trattati in parallelo. in questo modo, non ha alcuna relazione con i core / threads della CPU

Leave a Reply

Your email address will not be published. Required fields are marked *