<meter id="erttq"><listing id="erttq"><menu id="erttq"></menu></listing></meter>

    <code id="erttq"></code>
    <tr id="erttq"></tr>
    <ins id="erttq"><video id="erttq"></video></ins>
      <tr id="erttq"><small id="erttq"></small></tr><tr id="erttq"></tr>
    1. <small id="erttq"></small>

      <code id="erttq"></code><output id="erttq"><track id="erttq"></track></output><menuitem id="erttq"><video id="erttq"></video></menuitem>

          Google AI研究人員使用人體模型挑戰YouTube視頻來改善深度預測

          導讀谷歌人工智能研究人員今天表示,他們使用2,000個人體模型挑戰YouTube視頻作為訓練數據集來創建一個能夠根據運動視頻進行深度預測的人工智能

          谷歌人工智能研究人員今天表示,他們使用2,000個“人體模型挑戰”YouTube視頻作為訓練數據集來創建一個能夠根據運動視頻進行深度預測的人工智能模型。這種理解的應用可以幫助開發人員在手持相機和3D視頻拍攝的場景中制作增強現實體驗。

          人體模型的挑戰要求一群人在一個人拍攝視頻時基本上表現得像時間一樣停滯不前。研究人員在一篇名為“通過觀察冰凍人物學習移動人的深度”的論文中表示,這提供了一個數據集,可以幫助檢測攝像機和視頻中人物移動的視頻中的景深。

          研究科學家Tali Dekel和工程師Forrester Cole在一篇博客中說:“雖然最近使用機器學習進行深度預測有所激增,但這項工作是第一個針對同時攝像機和人體運動的情況定制基于學習的方法。” 今天發布。

          谷歌的研究人員表示,這種方法優于制作深度圖的最先進工具。

          “就人們在視頻中保持靜止而言,我們可以假設場景是靜態的,并通過運動結構(SfM)和多視圖立體聲(MVS)算法處理它們來獲得準確的相機姿勢和深度信息。 ,“ 報紙上寫道。“因為包括人在內的整個場景都是靜止的,我們使用SfM和MVS估計相機的姿勢和深度,并使用這個衍生的3D數據作為訓練的監督。”

          為了制作模型,研究人員訓練了一個能夠從RGB圖像輸入的神經網絡,人類區域的掩模和視頻中非人類環境的初始深度,以便生成深度圖并進行人體形狀和姿勢預測。

          去年,加州大學伯克利分校人工智能研究人員還利用YouTube視頻作為數據集來訓練人工智能模型,以舞蹈江南風格,并執行像后空翻這樣的雜技人類專長。

          標簽:GoogleAI

          免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

          九七色色 亭亭五月 欧美又粗又长又爽做受 中文字幕不卡av无码专线一本 av无码中文字幕不卡一区二区三区

          <meter id="erttq"><listing id="erttq"><menu id="erttq"></menu></listing></meter>

            <code id="erttq"></code>
            <tr id="erttq"></tr>
            <ins id="erttq"><video id="erttq"></video></ins>
              <tr id="erttq"><small id="erttq"></small></tr><tr id="erttq"></tr>
            1. <small id="erttq"></small>

              <code id="erttq"></code><output id="erttq"><track id="erttq"></track></output><menuitem id="erttq"><video id="erttq"></video></menuitem>