<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                ??一站式輕松地調用各大LLM模型接口,支持GPT4、智譜、豆包、星火、月之暗面及文生圖、文生視頻 廣告
                # GPU 內存處理 當您開始運行 TensorFlow 會話時,默認情況下它會抓取所有 GPU 內存,即使您將操作和變量僅放置在多 GPU 系統中的一個 GPU 上也是如此。如果您嘗試同時運行另一個會話,則會出現內存不足錯誤。這可以通過多種方式解決: * 對于多 GPU 系統,請設置環境變量`CUDA_VISIBLE_DEVICES=&lt;list of device idx&gt;` ```py os.environ['CUDA_VISIBLE_DEVICES']='0' ``` 在此設置之后執行的代碼將能夠獲取僅可見 GPU 的所有內存。 * 當您不希望會話占用 GPU 的所有內存時,您可以使用配置選項`per_process_gpu_memory_fraction` 來分配一定百分比的內存: ```py config.gpu_options.per_process_gpu_memory_fraction = 0.5 ``` 這將分配所有 GPU 設備的 50%的內存。 * 您還可以結合上述兩種策略,即只制作一個百分比,同時只讓部分 GPU 對流程可見。 * 您還可以將 TensorFlow 進程限制為僅在進程開始時獲取所需的最小內存。隨著進程的進一步執行,您可以設置配置選項以允許此內存的增長。 ```py config.gpu_options.allow_growth = True ``` 此選項僅允許分配的內存增長,但內存永遠不會釋放。 您將學習在后面的章節中跨多個計算設備和多個節點分配計算的技術。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看