Jestem zainteresowany wykorzystaniem XLA do treningu z niestandardowym urządzeniem (FPGA, ...).
Jednak dowiedziałem się, że XLA ma teraz status eksperymentalny z samouczka dla programistów.
https://www.tensorflow.org/performance/xla/
Nie dostałem powodu, dla którego XLA ma status eksperymentalny.
Czy jest jakiś duży problem związany z XLA poza poprawą wydajności?
Dzięki
Odpowiedzi:
4 dla odpowiedzi № 1XLA jest wciąż bardzo nowy: został wydany w marcu 2017 roku.
Jak stwierdzono w Strona Tensorflow XLA :
Uwaga: XLA jest eksperymentalny i uważany za alfa. Większość przypadków użycia będzie nie widać poprawy wydajności (szybkości lub zmniejszenia zużycia pamięci). Wydaliśmy XLA wcześnie, aby społeczność Open Source mogła wnieść swój wkład do jego rozwoju, a także stworzyć ścieżkę integracji z sprzętowe akceleratory.
Jeśli został wydany, dzieje się tak dlatego, że zespół programistów oczekuje opinii i wkładu społeczności Open Source w projekt.
Jest to poparte tym komunikat na blogu programistów Google:
XLA jest wciąż na wczesnym etapie rozwoju. To pokazuje bardzo obiecujące wyniki w niektórych przypadkach użycia i jasne jest, że TensorFlow mogą w przyszłości jeszcze więcej skorzystać z tej technologii. Zdecydowaliśmy udostępnić XLA TensorFlow Github wcześnie, aby uzyskać wkład od społeczności i zapewnić wygodną powierzchnię do optymalizacji TensorFlow dla różnych urządzeń komputerowych, a także przekierowanie Środowisko wykonawcze TensorFlow i modele do uruchamiania na nowym sprzęcie.
Dlaczego uważa się to za eksperymentalne? Po prostu dlatego, że istnieje wiele przypadków użycia i sprzętu, które nie zostały przetestowane. Testy porównawcze nie zawsze pokazują oczekiwane ulepszenia.
Możliwe, że napotkasz kilka błędów podczas korzystania z niego i zachęcasz do sygnalizowania ich za pośrednictwem strona wydania github z projektu.