03 51 PM EDT - ต. ค. 27 ฉันคิดว่า fps ต่ำไม่ดีนี่เป็นสาเหตุที่ทำให้ฉันรู้ว่า Flight Sims Crysis และ fsims มีความคล้ายคลึงกันในบางพื้นที่ที่มีประชากรหนาแน่นและบางส่วนไม่เป็นเช่นคุณพบบางพื้นที่ การสาธิตเป็น smoooth ในขณะที่บิตที่จุดเริ่มต้นที่คุณเดินขึ้นไปที่เพื่อนแขวนโดยรางของเขาจากต้นไม้เป็นเมืองพูดติดอ่างทันทีที่คุณตีชายหาดชายหาดพื้นที่หนาแน่นน้อยลงมัน settles ลงเช่นเที่ยวบิน sims wink. Have พวกเขาเรียงลำดับ ออกไดรเวอร์สำหรับ 8800 ยังสำหรับ vista หรือเป็นที่หนึ่งของปัญหาที่ยังคงมีอยู่ฉันแน่ใจว่ามันจะเพิ่มประสิทธิภาพมากขึ้นฉันสงสัยว่าเก่าสาธิตอยู่แล้ว 04 37 PM EDT - ต. ค. 27 2007. นี่เป็นเรื่องแปลกลองดูซิว่ามันเหมาะกับคุณหรือไม่ที่ฉันมี x2 AA ในเกมและกราฟฟิค fps ก็แย่ 1280x1024 ด้วย 7800GT ของฉันดังนั้นฉันจึงเลือกตัวเลือกการสมัครใน ไดรเวอร์ Nvidia ทำให้ไม่แตกต่างกันอย่างสิ้นเชิงผมจำได้ว่า AA และ AF ในไดร์ฟเวอร์ของฉันและในเกมจะเป็นไปอย่างสมบูรณ์แบบและคุณจะเชื่อหรือไม่กราฟิกจะไม่ราบเรียบและเฟรมต่อวินาทีขึ้นช็อตลองดูว่าคุณใช้อะไรบ้าง 1280x1024 06 17 น. EDT - ต. ค. 27 ฉันลองดูแล้วและฉันได้รับค่าเฉลี่ย 20 fps เท่านั้น แต่คุณภาพจะลดลงมากฉันตำหนิไดรเวอร์ทำให้ไร้สาระมากกว่าเกมที่มีประสิทธิภาพดีกว่าใน 8400gs กว่าที่เป็นอยู่ 8800gtx หรืออาจเป็นเกมของตัวเอง สำหรับผู้ที่ไม่ชอบภาพ UT3 มากลองใส่ผลโพสต์โปรเซสเซอร์ในค่าเริ่มต้นหรือมีชีวิตชีวามิฉะนั้นจะดูเหมือนอึและภาพจะถูกล้างออกสีดำเปลี่ยนเป็นสีเทาและสีอื่น ๆ เปลี่ยนเป็นสมดุลสีขาวที่นี่ เพื่อบันทึกวิดีโอหน้าจอบน Android.6 Paynekiller โพสต์เมื่อ 03 Apr 2012, 10 39 2. ฉันเคยทำเช่นนี้มาหลายปีแล้วกับ ShootMe มันไม่ได้อยู่ที่ Market Play Store ใด ๆ เพิ่มเติมนักพัฒนาออก แต่ค้นหา google ง่ายสำหรับไฟล์ บนโทรศัพท์ของคุณจะนำคุณไปยังมันยังจำเป็นต้องเข้าถึงรากยกเว้นกรณีที่คุณมี 2 2 EVO 4G หรือโทรศัพท์อื่น ๆ บางอย่างที่มีข้อผิดพลาดที่ให้การเข้าถึงราก root เข้าถึงคำอธิบายยาวมันเก่าสวยโดยขณะนี้ตั้งแต่นักพัฒนา hasn t รับการปรับปรุง ดังนั้นฉัน don t ทราบว่ามันจะทำงานร่วมกับผู้ประมวลผลโทรศัพท์ใหม่ ๆ แต่ทำงานร่วมกับ Sprint Galaxy S II ของฉันเพียงแค่ปรับ 7 โพสต์เมื่อ 03 เมษายน 2012, 11 15 0.First คุณบอกว่าผู้ประมวลผลเก่าอ่อนแอก่อน tegra3 ไม่สามารถบันทึกวิดีโอ 800x480 ได้แล้วคุณจะยังคงดำเนินต่อไปได้ ogram เราสามารถใช้ doesn t สนับสนุนชิปใหม่ ๆ เหล่านี้และปล่อยให้เรามีการ์ดจับภาพ 200 ตัวที่ไม่มีส่วนเกี่ยวข้องกับชิปเซ็ตรุ่นล่าสุดเพียงแค่ความสามารถในการแสดงผลแบบ hdmi บทความที่ไร้ประโยชน์โดยสิ้นเชิงคุณอาจพบวิธีที่ชาญฉลาดในการโฆษณา ScreenCast 8 downphoenix โพสต์เมื่อ 03 เมษายน 2012, 12 04 0. ฉันเข้าใจบันทึกหน้าจอสามารถเข้มข้นสวยฉันยังมีปัญหาบางอย่างเมื่อใช้ fraps ในเครื่องคอมพิวเตอร์ของฉัน แต่มีจริงๆไม่มีทางนอกเหนือจาก HDMI หรือมีโทรศัพท์สัตว์ฉันจะคิดว่าพวกเขาสามารถ คิดวิธีของเราโดยใช้มาตรฐาน micro USB, การถ่ายโอนข้อมูลในที่เร็วพอ right.11 Comk4ver โพสต์เมื่อ 17 เมษายน 2013, 18 49 0 paynekiller ฉันรู้ว่านี่เป็นบทความเก่า แต่กล่าวว่าหน้าจอวิดีโอไม่ได้หน้าจอ shot.12 Caleb โพสต์เมื่อวันที่ 24 Feb 2014, 00 57 0. สำหรับฉันนี้เป็น mos วิธีที่ง่ายและมีเสถียรภาพมากขึ้นและ sotf สวยงามมากขึ้นถ้าคุณต้องการ Capture Record Android Screen Without Root.14 AfterShock โพสต์เมื่อ 09 กรกฎาคม 2014, 08 42 0. เมื่อได้รับการขุดขึ้นมาจาก 15 Awalker โพสต์เมื่อวันที่ 09 ก. ค. 2014, 08 55 ความคิดเห็นจากที่นี่ 2012 ถ้าพวกเขากำลังจะรีไซเคิลบทความพวกเขาอย่างน้อยควรจะกำจัดความคิดเห็นที่เก่ากว่านี้ XperiaFanZone โพสต์เมื่อ 09 Jul 2014, 09 00 0 เพิ่มวิธีการเพิ่มเติมในการจับภาพหน้าจอ แอพพลิเคชัน Rec ดูเหมือนจะดีพอ 18 โพสต์เมื่อ 09 Jul 2014, 10 20 0. นี่คือสิ่งที่ทำให้ฉันคลั่งไคล้เกี่ยวกับ Android People อ้างว่าสามารถทำได้มาก แต่ก็มักต้องใช้รากหรือการกระทำอื่น ๆ การใช้งานทั่วไปไม่ทราบว่าจะทำอย่างไรดังนั้นการใช้งานจริงคืออะไรนอกเหนือจากการพูดว่ามันสามารถทำได้เช่นนี้เหมือนกับตัวแทนจำหน่ายรถยนต์ที่ขายรถให้คุณและบอกว่าคุณสามารถสร้าง GPS ได้ แต่คุณต้องตัดหลุมในช่องรีบและ สายมันขึ้นด้วยตัวคุณเองในความเป็นจริงการบันทึกวิดีโอหน้าจอจะไร้ประโยชน์จนกว่าฉันสามารถซื้อโทรศัพท์และคลิกที่ไอคอนเพื่อให้เกิดขึ้นกับการปรับเปลี่ยนไม่ 20 StraightEdgeNexus โพสต์เมื่อ 09 Jul 2014, 10 45 0.Oh wow ฉันอยากจะรู้ แพลตฟอร์มใดที่ช่วยให้คุณสามารถบันทึกหน้าจอได้นรกซึ่งแพลตฟอร์มนี้จะช่วยให้คุณมี hac ระดับนี้ กษัตริย์และการเข้าถึงของผู้ใช้ super เช่นความเห็นใบ้ -60 1 -60 2 603 -60 1 -60 2 603,. , -60 2 - -, -138 1500 1000, 2 -. -. ,. 60 3 2 138 15001000 414 563 2414 1123 -60 2 228 56 111 -60 1 123 -60 2. 9 60 1 11 60 2. . 60 120. ฟรี NVIDIA FCAT VR เครื่องมือวิเคราะห์ประสิทธิภาพพร้อมใช้งานสำหรับการดาวน์โหลดในปี 2013 NVIDIA ปฏิวัติการเปรียบเทียบกราฟิกการ์ดด้วยการเปิดตัว FCAT เครื่องมือฟรีที่เปิดใช้งานผู้เล่นและผู้ตรวจทานเพื่อทดสอบ FPS ไม่เพียง แต่ยังเรียบและคุณภาพของการเล่นเกม GPUs ทั้งหมดด้วย FCAT ประสิทธิภาพการทำงานจะเป็นครั้งแรกที่วัดได้จากรายละเอียดที่ซับซ้อนเผยให้เห็นไมโครสติกกะทัดรัดเฟรมลดเฟรม GPU ที่ไม่ถูกต้องและอื่น ๆ อีกมากมายตอนนี้ GPU ที่ดีที่สุดคือ GPU ที่รวดเร็วและราบรื่น เป็นประสบการณ์ที่สนุกสนานมากขึ้นในทุกๆเกมวันนี้เราจะปล่อย FCAT VR ที่ทำให้นักวิจารณ์นักพัฒนาเกมผู้ผลิตฮาร์ดแวร์และผู้ที่ชื่นชอบการทดสอบประสิทธิภาพของเกม Virtual Reality PC อย่างรวดเร็วและราบรื่นจะช่วยป้องกันการเล่นเกมที่ไม่ตอบสนองต่อสติ๊ก ความเครียดตาและความรู้สึกไม่สบายก่อนหน้านี้การทดสอบความสมจริงเสมือนอาศัยเครื่องมือทดสอบทั่วไปการทดสอบแบบรวมและการแก้ปัญหาที่ถูกแฮ็กร่วมกัน ich ไม่สามารถเปิดเผยประสิทธิภาพของ GPU ในเกม VR ได้อย่างแท้จริงด้วย FCAT VR เราอ่านข้อมูลประสิทธิภาพจากสถิติไดรเวอร์ NVIDIA การติดตามเหตุการณ์สำหรับเหตุการณ์ Windows ETW สำหรับ Oculus Rift และข้อมูลประสิทธิภาพ API SteamVR ของ HTC Vive เพื่อสร้างข้อมูลประสิทธิภาพ VR ที่แม่นยำ ใน GPU ทั้งหมดการใช้ข้อมูลนี้ผู้ใช้ FCAT VR สามารถสร้างแผนภูมิและวิเคราะห์ข้อมูลสำหรับเฟรมภาพเฟรมที่ลดลงวิปริตที่ลดลงและ Asynchronous Space Warp ASW ที่สังเคราะห์เฟรมเปิดเผยการพูดติดอ่างการสอดแทรกและประสบการณ์ที่ได้รับเมื่อเล่นเกมบน GPU ใด ๆ เกม Virtual Reality ที่ผ่านการทดสอบแล้วตัวอย่างของแผนภูมิประสิทธิภาพของ VR FCAT หากคุณต้องการเปรียบเทียบระบบกับ FCAT VR การทดสอบจะทำได้ง่ายกว่าแม้ว่าการตั้งค่าการวิเคราะห์ข้อมูลมาตรฐานจะต้องมีกี่ขั้นตอนคำแนะนำ How-To สำหรับทุกคน พร้อมด้วยข้อมูลเพิ่มเติมที่จะทำให้คุณมีความเข้าใจอย่างลึกซึ้งในการทดสอบ FCAT VR สามารถดูได้ที่ด้านล่างการทดสอบ FCAT VR ในชุดหูฟัง VR ระดับไฮเอนด์ที่มีความละเอียดสูง Oculus Rift และ HTC Vive ทั้งสองรีเฟรชหน้าจอของพวกเขาในช่วงเวลาคงที่ 90 Hz ซึ่งเท่ากับการรีเฟรชหน้าจอ 1 ครั้งทุกๆ 1 มิลลิวินาที ms VSYNC จะเปิดใช้งานเพื่อป้องกันการฉีกขาดเนื่องจากการฉีกขาดใน HMD อาจทำให้ผู้ใช้รู้สึกไม่สบายได้ VR ซอฟต์แวร์สำหรับการจัดเฟรมสามารถแบ่งออกเป็นสองส่วนคือ VR Game และ VR Runtime เมื่อต้องการเวลาและกระบวนการทำงานอย่างถูกต้องจะมีการสังเกตลำดับต่อไปนี้เกม VR ตัวอย่างชุดเซ็นเซอร์ตำแหน่งชุดหูฟังปัจจุบันและปรับปรุงตำแหน่งกล้องใน เกมได้อย่างถูกต้องติดตามตำแหน่งหัวของผู้ใช้เกมนั้นสร้างเฟรมกราฟิกและ GPU แสดงผลเฟรมใหม่ไปยังพื้นผิวที่ไม่ใช่การแสดงผลขั้นสุดท้าย VR Runtime อ่านเนื้อสัมผัสใหม่ปรับเปลี่ยนและสร้างภาพสุดท้ายที่ จะปรากฏบนจอแสดงผลของชุดหูฟังการปรับเปลี่ยนที่น่าสนใจทั้งสองแบบนี้รวมถึงการแก้ไขสีและการแก้ไขเลนส์ แต่งานที่ทำโดย VR Runtime สามารถทำได้อย่างละเอียดมากขึ้นรูปต่อไปนี้แสดงให้เห็นถึงสิ่งที่ l ooks เช่นเดียวกับในกราฟเวลา. Pipeline VR ที่ถูกต้องงานของ Runtime กลายเป็นความซับซ้อนมากขึ้นถ้าเวลาในการสร้างเฟรมเกินช่วงการฟื้นฟูในกรณีนี้ระยะเวลาที่ใช้ไปทั้งหมดสำหรับ VR Game และ VR Runtime ที่รวมกันยาวเกินไป และเฟรมจะไม่พร้อมที่จะแสดงที่จุดเริ่มต้นของการสแกนครั้งถัดไปในกรณีนี้ HMD จะแสดงกรอบการทำงานที่แสดงผลก่อนหน้านี้ออกจากรันไทม์ แต่สำหรับ VR พบว่าประสบการณ์ดังกล่าวไม่สามารถยอมรับได้เนื่องจากการทำซ้ำเฟรมเก่าบน VR การแสดงผลชุดหูฟังจะละเว้นการเคลื่อนไหวของศีรษะและส่งผลให้ประสบการณ์การใช้งานของผู้ใช้ที่ไม่ดีมีการใช้เทคนิคต่างๆเพื่อปรับปรุงสถานการณ์นี้รวมทั้งอัลกอริทึมที่สังเคราะห์เฟรมใหม่แทนที่จะทำซ้ำแบบเดิมส่วนใหญ่ของศูนย์เทคนิคเกี่ยวกับแนวคิดการคัดลอกใหม่ซึ่งใช้ เซ็นเซอร์ตำแหน่งหัววัดล่าสุดเพื่อปรับเฟรมเก่าให้เข้ากับตำแหน่งหัวปัจจุบันการทำงานนี้จะไม่ช่วยให้ภาพเคลื่อนไหวฝังตัวอยู่ในเฟรมซึ่งจะทำให้อัตราเฟรมต่ำลงและผู้ตัดสิน der แต่ประสบการณ์การมองเห็นของเหลวที่ติดตามได้ดียิ่งขึ้นด้วยการเคลื่อนไหวของศีรษะจะถูกนำเสนอใน HMD. FCAT VR Capture จะรวบรวมเมตริกประสิทธิภาพที่สำคัญสี่ตัวสำหรับ Rift และ Vive. Dropped Frames หรือที่เรียกว่า App Miss หรือ App Drop. Warp Misses. Frametime data. Asynchronous Space Warp ASW synthesized frames วางเฟรมเมื่อเฟรมที่แสดงโดย VR Game มาถึงสายเกินไปที่จะแสดงในช่วงการรีเฟรชปัจจุบันเฟรม Drop เกิดขึ้นและทำให้เกมพูดติดอ่างทำความเข้าใจกับหยดเหล่านี้และวัดผลเหล่านี้ให้ข้อมูลเชิงลึกเกี่ยวกับประสิทธิภาพ VR เฟรม Asynchronous ASW เป็นกระบวนการที่ใช้การตรวจจับภาพเคลื่อนไหวจากเฟรมที่แสดงผลก่อนหน้านี้เพื่อที่จะสังเคราะห์เฟรมใหม่ที่คาดการณ์ไว้โปรดดูส่วน ASW Asynchronous Spacewarp ASW ด้านล่างเพื่อดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีการทำงานการเชิร์ฟพลาดเป็นปัญหาที่สำคัญมากสำหรับ ประสบการณ์ VR ความผิดพลาดวิปริตเกิดขึ้นเมื่อใดก็ตามที่รันไทม์ไม่สามารถสร้างเฟรมใหม่หรือเฟรมที่ย่อยสลายในช่วงการรีเฟรชปัจจุบันใน th e ก่อนหน้านี้เฟรมที่ถูกบิดเบี้ยวก่อนจะถูก reshown โดย GPU ผู้ใช้ VR ประสบกับช่วงเวลาที่แช่แข็งนี้เนื่องจากการพูดติดอ่างอย่างมากเนื่องจาก FCAT VR มีการกำหนดเวลาอย่างละเอียดและยังสามารถวัด FPS ที่ไม่มีข้อ จำกัด สำหรับหัวข้อใด ๆ ได้อย่างถูกต้องโดยการตรวจสอบระยะเวลาของระบบ ใช้เวลาในการแสดงผลแต่ละเฟรมเราจะเห็นได้ว่าระบบสามารถแสดงเฟรมได้เร็วเพียงใดถ้าไม่ใช่สำหรับจังหวะการรีเฟรช 90 เฮิรตซ์โดยการใช้ข้อมูลนี้ FCAT VR Capture จะมีลักษณะภายในเฟรมเพื่อคำนวณความสูงของส่วนหัวและสามารถวัดความสัมพันธ์ได้อย่างแท้จริง ประสิทธิภาพการทำงานของ GPU ของเนื้อหา VR ที่ต้องการภายในระบบนิเวศ VR ที่รีเฟรชอย่างต่อเนื่องการทดสอบการรั่วไหลด้วย FCAT VR. FCAT VR Capture เข้าถึงข้อมูลประสิทธิภาพที่ได้จากการรันไทม์ Oculus โดยตรงเข้าสู่ระบบ ETW เมื่อกดฮอตคีย์ FCAT VR Capture จะจับภาพเหตุการณ์ที่ต้องการใน fly แปลงเหตุการณ์เหล่านี้ให้เป็น timestamps ที่สามารถอ่านได้จากนั้นจะบันทึกเป็นไฟล์ CSV สร้าง timestamps ต่อไปนี้ในวันนี้ด้วย Oculus. App Render Begi n. App Render Completion. Warp Render Begin. Warp Render Completion การสนับสนุนเวอร์ชัน SDK ปัจจุบันคือ 1 11. คอลัมน์การจับภาพ FCAT VR ของ FCC อธิบายไว้ด้านล่างตารางด้านล่างแสดงคอลัมน์ FCAT VR Capture และเหตุการณ์ Oculus ที่เกี่ยวข้องหมายเหตุ NA หมายถึง Not Available และ บางเหตุการณ์ ETW ไม่ได้มีเขตข้อมูลฟิลด์การจับภาพ VAT ของ FCATCall 0 และ Return 1 เหตุการณ์ประกอบด้วยฟิลด์ FrameID Interpolated FrameID s เป็น 0 ถ้ามีกรอบ interpolated อยู่สถานะ ASW จะรายงานเป็น 1 มิฉะนั้นจะเป็น 0. ASsSynchronous Spacewarp ASW. Asynchronous Spacewarp ASW เป็นเทคโนโลยีที่พัฒนาโดย Oculus เพื่อปรับปรุงความเรียบใน GPU หลักในเวลานี้ ASW ถูกเปิดใช้งานโดยค่าเริ่มต้นในรันไทม์สาธารณะ BETA 1 วิธี ASW Work ทำงานได้เพื่อทำความเข้าใจกับ ASW ก่อนอื่นเราต้องเข้าใจ Asynchronous Timewarp ATW ATW เป็นกระบวนการที่แยกออกจากเธรดการแสดงผลหลักและรันภายใน Oculus Runtime ซึ่งตำแหน่ง HMD ถูกสุ่มตัวอย่างใกล้ช่วง VSYNC ส่วนความแตกต่างจากตำแหน่งก่อนหน้านี้คือ c alculated เฟรมที่เสร็จสิ้นเมื่อเร็ว ๆ นี้ได้รับการแปลเปลี่ยนโดยไม่มีการแสดงผลเต็มรูปแบบตามความแตกต่างของตำแหน่งและเฟรมที่แปลใหม่จะปรากฏขึ้นบน HMD. Asynchronous Spacewarp ASW เป็นกระบวนการที่ใช้การตรวจจับภาพเคลื่อนไหวจากเฟรมที่แสดงผลก่อนหน้านี้เพื่อที่จะสังเคราะห์ เฟรมใหม่ที่คาดการณ์ไว้เรียกขานเราสามารถอ้างถึงนี้เป็นกรอบ synthesized ASW หากโปรแกรมสามารถที่จะแสดงอย่างต่อเนื่องที่ 90 Hz, เฟรมสังเคราะห์จะไม่แสดงใน HMD ASW จะเปิดใช้งานเมื่อเฟรมไม่สามารถแสดงผลเป็นต่อ ตามปกติในเวลาการคาดการณ์เฟรมที่สังเคราะห์ขึ้นอยู่กับการตรวจจับการเคลื่อนไหวจากเฟรมที่แสดงผลก่อนหน้านี้มีความต้องการน้อยกว่าการแสดงเฟรมใหม่ถ้า ASW ถูกปิดใช้งานและแอ็พพลิเคชันไม่สามารถส่งเฟรมไปยัง Oculus Runtime ได้ที่ 90 Hz Runtime จะเลือกมากที่สุด เพิ่งเสร็จสิ้นกรอบและใช้ ATW ไปถ้าหาก ASW ถูกเปิดใช้งานและแอ็พพลิเคชันไม่สามารถส่งเฟรมไปยัง Oculus Runtime ได้ที่ 90 Hz เครื่องรันไทม์จะรัน แอ็พพลิเคชันที่ 45 เฟรมต่อวินาทีและใช้ ATW กับเฟรมที่สร้างขึ้นเป็นประจำและเฟรมที่สังเคราะห์ ASW เฟรมที่สังเคราะห์ ASW เหล่านี้ทำหน้าที่เป็นเฟรมตัวกลางระหว่างเฟรมที่สร้างขึ้นมาเป็นระยะ ๆ ผลสุดท้ายคือมุมมองจะเห็นภาพเคลื่อนไหวที่นุ่มนวลขึ้นที่ 45 FPS แต่แสดงที่ 90 FPS . FCAT VR Analyzer สร้างกราฟที่แสดงพฤติกรรมที่เห็นได้ชัดใน HMD แผนภูมิด้านบนหมายถึงเวลาที่ใช้ในการแสดงเฟรมที่ปรากฏใน HMD แผนภูมิด้านล่างสองรูปสี่เหลี่ยมผืนผ้าสีเขียวแสดงเฟรมที่หลุดเฟรมที่สังเคราะห์ขึ้นและเส้นโค้งวิปริตซึ่งเป็น แสดงเป็นเฟรมที่ลดลงมองใกล้ที่กราฟ frametime ด้านล่างเราจะเห็นการเปรียบเทียบการตั้งค่า LMS ในเกม Everest บน Oculus Rift สังเกตว่าเส้นจับภาพสีเขียวสว่างที่มี LMS ตั้งค่าเป็น 0 Off จะอยู่ที่ 11 1 ms ซึ่ง correlates ถึง 90 FPS แต่มี spikes เล็กน้อยที่ไปเหนือ 11ms. The สีด้านล่าง frametime กราฟสี่เหลี่ยมผืนผ้าสีเขียวแสดงร้อยละทันทีของประเภทกรอบปัญญา hin ใด ๆ ที่กำหนดภายใน 90 FPS ข้อมูลนี้จะตอบคำถามเหล่านี้ในวินาทีที่ผ่านมาจำนวนเฟรมที่เป็นจริงและแสดงอย่างเต็มที่ที่ 90 เฟรม FPS เฟรมจำนวนมากถูกสังเคราะห์แทนการแสดงผลอย่างเต็มที่และจำนวนเฟรมที่ถูกลดลงต่อไปเพื่อดู ที่ข้อมูล Everest เราจะเห็นว่า spikes เหนือ 11ms ส่งผลให้เฟรมที่ลดลงหลายเฟรมและมีการขัดจังหวะค่อนข้างมากที่ประมาณ 38-39 วินาทีและเฟรมที่สังเคราะห์ได้มากกว่า 5 วินาทีเนื่องจากมีการขัดขวางขนาดใหญ่อย่างไรก็ตามโดยใช้ NVIDIA LMS 1 แก้ไขปัญหาเหล่านี้ส่วนใหญ่แผนภูมิเหล่านี้แสดงให้เห็นว่าการจับภาพ FCAT VR Capture ช่วยให้เข้าใจได้มากยิ่งขึ้นว่าเกิดอะไรขึ้นเบื้องหลังฉากการวิเคราะห์คร่าวๆของกราฟเหล่านี้สามารถทำได้โดยพิจารณาว่ากรีนเป็นกราฟที่สีเขียว เฟรมจริงมากขึ้นจะถูกนำเสนอและการทดสอบที่ดีขึ้นการทดสอบ HTC Vive ด้วยการทดสอบ FCAT VR. HTC Vive ใช้ OpenVR SDK FCV VR Capture ของ SteamVR ใช้ API ประสิทธิภาพที่ SteamVR สร้างขึ้นเพื่อสร้าง e timestamps ในรูปแบบเดียวกับที่ใช้สำหรับ Oculus timestamps เมื่อกดฮอตคีย์ FCAT VR Capture จะบันทึกเหตุการณ์เหล่านี้ได้ทันทีแปลงเหตุการณ์เหล่านี้เป็น timestamps ที่สามารถอ่านได้แล้วบันทึกเหตุการณ์ลงในไฟล์ CSV OpenVR SDK เวอร์ชัน 0 ถึง 5 19 ทั้งสองแบบมีการสนับสนุนไว้ OpenpenVR FCAT VR Capture Columns Explained ตารางต่อไปนี้แสดงคอลัมน์ FCAT VR Capture และเหตุการณ์ HTC ที่สอดคล้องกันฟิลด์ FCAT VR CaptureSteamVR ใช้โหมดการ reprojection สองแบบ Reprojection แบบแทรกสอด Reproduction แบบอะซิงโครนัสทั้งสองโหมดได้รับการสนับสนุนบน NVIDIA GPU และเปิดใช้งานโดยค่าเริ่มต้น Reprojection สามารถแก้ไขได้เฉพาะสำหรับการหมุนเช่น Oculus Asynchronous Time Warp ATW เนื่องจากการจำลองแบบอะซิงโครนัสไม่ได้รับการสนับสนุนบน GPU ของ AMD เราขอแนะนำให้ปิดใช้งาน NVIDIA เพื่อให้แน่ใจว่าแอปเปิ้ลไปแอปเปิ้ลทดสอบกับ GPU ที่แข่งขันกันของ AMD คำอธิบายโดยละเอียดเกี่ยวกับ Reprojection โปรดดูที่การนำเสนอโดย Alex Vlachos จาก Valve. FCAT VR Installation. Begin โดยดาวน์โหลด FCAT VR จาก Use. Unpack FCAT VR Capture. Unpack ดาวน์โหลดไฟล์ไปยังสถานีจับภาพ VR ที่มีการติดตั้ง HMD ของคุณซอฟต์แวร์สามารถเรียกใช้จากทุกแห่งอย่างไรก็ตามเราขอแนะนำให้วางไฟล์ในโฟลเดอร์ชื่อ FCAT VR Capture ใน C FCAT ดังที่แสดงด้านล่างการติดตั้ง FCAT VR จับภาพบน HTC Vive โปรดปฏิบัติตามคำแนะนำต่อไปนี้เมื่อใช้ FCAT VR Capture กับ HTC Vive. Ensure ว่าไดรเวอร์กราฟิกทั้งหมดถูกติดตั้งอย่างถูกต้องหรือไม่เริ่ม SteamVR คลิกที่เมนู File แล้วคลิก Settings คลิก Performance และ disable Allow reprojection asynchronous เพื่อให้แอพพลิเคชันแอ็ปเปิ้ล - การทดสอบกับแอ็ปเปิ้ลการทดสอบกับ GPUs แข่งขันกันของ AMD เปิดใช้งานอนุญาตให้มีการฝังซ้ำการลอกออก SteamVR เปิดหน้าต่างคำสั่งที่มีสิทธิ์ของผู้ดูแลระบบในไดเร็กทอรีของไฟล์ FCAT VR Capture ที่ให้มาจากบรรทัดคำสั่งของผู้ดูแลระบบ execute. Reboot system. NOTE คุณต้องทำซ้ำ ขั้นตอนที่ 4 6 ทุกครั้งที่คุณติดตั้ง GPU ใหม่หรือไดรเวอร์กราฟิกใหม่การติดตั้ง FCAT VR Capture บน Oculus Rift โปรดปฏิบัติตามคำแนะนำเหล่านี้เมื่อใช้ FCAT VR Capture ด้วย Oculus Rift ตรวจสอบให้แน่ใจว่าไดรเวอร์กราฟิกทั้งหมดถูกติดตั้งอย่างถูกต้องเปิดหน้าต่างคำสั่งที่มีสิทธิ์ของผู้ดูแลระบบในไดเร็กทอรีของไฟล์ FCAT VR Capture ที่ให้มาจากบรรทัดคำสั่งของผู้ดูแลระบบ execute. NOTE คุณต้องทำซ้ำขั้นตอนที่ 2 4 ในแต่ละครั้งที่คุณทำ ติดตั้ง GPU ใหม่หรือไดร์เวอร์กราฟิกใหม่ใช้ตัววิเคราะห์ FCAT VR เครื่องวิเคราะห์ FCAT VR ยังมีการจัดส่งในไฟล์ ZIP เดียวกันเปิดไฟล์นี้ลงในระบบที่คุณวางแผนจะใช้เพื่อวิเคราะห์ข้อมูล VR ที่บันทึกซึ่งอาจจะเหมือนกันหรือแยกกัน machine. As ก่อนที่เราขอแนะนำให้สร้างโฟลเดอร์ FCAT VR Analyzer ใน C FCAT ดังที่แสดงด้านล่างการติดตั้ง Anaconda pyqtgraph สำหรับ FCAT VR Analyzer. FCAT VR เขียนขึ้นด้วย Python ดังนั้นการใช้งานเพียงไม่กี่ชิ้นจำเป็นต้องใช้ซอฟต์แวร์ตัวแรกของซอฟต์แวร์อิสระ สำหรับ FCAT VR ในการทำงานคือซอฟต์แวร์งูหลาม Anaconda ดาวน์โหลดได้ที่นี่ในระหว่างการติดตั้งตรวจสอบให้แน่ใจว่าได้เลือกเพิ่ม Anaconda ไปยังตัวแปรสภาพแวดล้อม PATH และเลือก Register Anaconda เป็นดีฟอลต์ Python 3 6 ตามที่แสดง ด้านล่างชิ้นที่สองของซอฟต์แวร์อิสระที่ใช้โดยสคริปต์เพื่อสร้างแผนภูมิและแปลงที่เรียกว่า pyqtgraph. To ติดตั้ง pyqtgraph หลังจากติดตั้ง Anaconda เปิดหน้าต่างคำสั่งที่มีสิทธิ์ผู้ดูแลระบบจากตำแหน่งใด ๆ จากบรรทัดคำสั่งของผู้ดูแลระบบพิมพ์ต่อไปนี้ หมายเหตุคุณอาจจำเป็นต้องบูตเครื่องใหม่หาก Python ไม่ทำงานหลังจากการติดตั้งวิธีการใช้ FCAT VR Capture. FCAT VR Capture ทำงานได้กับ Windows ทุกรุ่นและ API DirectX ทั้งหมด GPU ทั้งหมดและ Oculus Rift และ HTC Vive อย่างไรก็ตามมี ไม่มีการสนับสนุน OpenGL ในขณะนี้คลิกสองครั้งเพื่อเปิด FCAT VR Capture หมายเหตุโปรดตรวจสอบว่า FRAPS ถูกปิดก่อนที่จะเปิดตัว FCAT VR Capture ในฐานะที่เป็นขั้นตอนเพิ่มเติมขอแนะนำให้ปิดใช้งานการซ้อนทับจากแอพพลิเคชันอื่นเพื่อให้แน่ใจว่าจะไม่ทำขั้นตอนต่อ FCAT VR Capture ในตำแหน่งโฟลเดอร์เกณฑ์มาตรฐานให้เลือกปุ่ม BROWSE เพื่อเลือกไดเร็กทอรีที่ต้องการซึ่งจะจัดเก็บผลการทดสอบมาตรฐานระบุความล่าช้าในการจับภาพและความสามารถในการจับเวลาระยะเวลาการจับภาพจะเริ่มหลังจาก d ตั้งค่านี้เป็น 0 จะเริ่มการจับภาพทันทีระยะเวลาการเก็บข้อมูลหลังจากผ่านไประยะเวลาวินาทีการจับภาพจะหยุดโดยอัตโนมัติการตั้งค่านี้เป็น 0 ปิดใช้งานการจับภาพเริ่มแอปพลิเคชัน VR แถบสีแดงจะปรากฏขึ้นทางด้านขวาของ HMD เพื่อ ระบุว่าการจับภาพ FCAT VR Capture กำลังทำงานอยู่ในตัวบ่งชี้สีของสีการจับภาพสีเขียวในระหว่างดำเนินการการเริ่มต้นล่าช้าสีเขียวและสีแดงล่าช้าเริ่มต้นการจับภาพด้วยการจับภาพหยุดชั่วคราวกดแป้นเลื่อนเพื่อเริ่มต้นการวัดค่าแถบสีแดงจะเปลี่ยนเป็นสีเขียวเพื่อระบุว่าการเปรียบเทียบอยู่ในระหว่างดำเนินการหมายเหตุในตอนนี้ time การจับภาพ FCAT VR Capture จะสนับสนุนเฉพาะ SCROLL LOCK เป็นฮ็อตคีย์การทำ benchmarking เมื่อถึงจุดใด ๆ หากมีการจับภาพหรือการทำงานของตัวบ่งชี้การกระพริบหรือสีเขียวการกด SCROLL LOCK จะหยุดการจับภาพเพื่อเริ่มการจับภาพอีกครั้งกด SCROLL LOCK. Press SCROLL LOCK อีกครั้งเพื่อหยุดการวัดประสิทธิภาพการทำงานออกจากแอ็พพลิเคชัน VR และกลับไปยัง FCAT VR Capture คลิก OPEN FOLDER เพื่อดูผลลัพธ์ที่ได้จากการทดสอบผลลัพธ์ที่ได้จาก FCAT VR Capture จะเป็น บันทึกเป็นไดเรกทอรีที่มีชื่อ timestamp พิจารณาเปลี่ยนชื่อไดเรกทอรีเพื่อแสดง GPU เกมและการตั้งค่าที่ทดสอบหมายเหตุเราขอแนะนำให้ใช้โครงสร้างไดเร็กทอรีที่ระบุไว้ในส่วนถัดไปสำหรับข้อมูลของคุณในไดเรคทอรี่ผลลัพธ์ไฟล์ที่มีคำว่า รวมอยู่ในชื่อไฟล์จะต้องใช้เพื่อสร้างข้อมูลด้วยเครื่องวิเคราะห์ FCAT VR ใหม่การจัดเก็บข้อมูลการจับภาพ VAT ของ FCAT สร้างไฟล์สามไฟล์ใช้ชื่อไฟล์ที่รวมเข้าด้วยกันในชื่อใน Analyzer ขอแนะนำให้เก็บข้อมูลโดยใช้ FCAT VR Capture จะอยู่ในโครงสร้างไดเร็กทอรีที่แสดงไว้ด้านล่างใช้ไดเร็กทอรี C FCAT เป็นไดเร็กทอรีฐานของคุณจากนั้นสร้างโฟลเดอร์ Data เพื่อใส่ข้อมูล VR ที่ถูกจับลงไปโดยใช้วิธีการตั้งชื่อโฟลเดอร์สำหรับข้อมูล VR ที่จับภาพของคุณดังต่อไปนี้ ใช้สำหรับ OTHER ในตัวอย่างนี้ใช้สำหรับ LMS และ MRS captures นี่คือโครงสร้างโฟลเดอร์โดยใช้ตัวอย่างข้างต้น FCAT DATA GTX 1060 การตั้งค่ากลาง Everest LMS 0.NOTE คุณสามารถใช้ขีดกลางขีดเส้นใต้หรือ ช่องว่างในชื่อโฟลเดอร์การใช้โครงสร้างโฟลเดอร์นี้จะช่วยให้ซอฟท์แวร์ FCAT VR Analyzer สามารถจับภาพ GPU เกมการตั้งค่าและข้อมูลอื่น ๆ ที่คุณต้องการรวมอยู่ในแผนภูมิของคุณได้ง่ายขึ้นการใช้โครงสร้างโฟลเดอร์ด้านบนจะทำให้ง่ายสำหรับ FCAT VR Analyzer เพื่อให้เหมาะสมกับองค์ประกอบตามโครงสร้างโฟลเดอร์ของคุณวิธีการวิเคราะห์ข้อมูล FCAT VR ที่จับได้ความเรียบเนียนเป็นสิ่งสำคัญสำหรับการเล่นเกม VR และผู้ใช้สามารถประเมินการพูดติดอ่างที่อาจส่งผลต่อความคล่องตัวของเกมในรูปแบบต่างๆวิธีที่สำคัญที่สุด เป็นเพียงประสบการณ์ VR และประเมินว่ารู้สึกอย่างไรมันมีข้อผูกมัดมีการพูดติดอ่าง Pan มองไปรอบ ๆ และรู้สึกว่ามันเรียบใน motion. ATATRF ทำงาน FRAPS และใหม่ FCAT VR Capture ข้อมูลเวลากรอบส่วนนี้จะอธิบายวิธีการใช้ FCAT VR. Running FCAT VR Analyzer หลังจากติดตั้งซอฟต์แวร์ข้างต้นแล้วคุณจะสามารถเรียกใช้เครื่องวิเคราะห์ FCAT VR ได้โดยดับเบิลคลิกที่การเปิดดังรูปด้านล่างหากไม่ได้เชื่อมโยงอย่างถูกต้องกับ Python คุณจะต้องตั้งค่า U p ร่วมด้วยตนเองปฏิบัติตามคำแนะนำเหล่านี้สำหรับการทำเช่นนี้คลิกขวาใน Windows File Explorer และเลือกเปิดด้วยเลือกเลือกใช้แอพฯ นี้เพื่อเปิดไฟล์จากนั้นคลิกแอพฯ อื่น ๆ จะปรากฏกลุ่มแอพพลิเคชันขึ้นมาคลิกที่มองหาอีก ในพีซีนี้ตอนนี้คุณจะต้องเรียกดูตำแหน่งของในโฟลเดอร์ Anaconda3 เลือกและคลิกปุ่มเปิด ตอนนี้ควรจะเชื่อมโยงไปยังไฟล์ทั้งหมดจะมีไอคอน Anaconda ที่เชื่อมโยงอยู่ด้วยดังที่แสดงไว้ด้านล่างการเปิดตัว FCAT VR Analyzer เมื่อเปิดตัว FCAT VR Analyzer จะมีลักษณะดังนี้เพื่อให้ได้ข้อมูลในเลือกโฟลเดอร์ข้อมูลจาก Windows Explorer และ ลากด้วยเมาส์ไปยังโปรแกรม FCAT Analyzer ลากจากโฟลเดอร์ข้อมูลโฟลเดอร์นี้ประกอบด้วยโฟลเดอร์ย่อยตามที่ระบุข้างต้นคุณสามารถดูได้จากตัวอย่างด้านล่างนี้คุณสามารถลากโฟลเดอร์ GPU หลายรายการไปยัง FCAT VR Analyzer ในความเป็นจริงได้ ไม่มีข้อ จำกัด Drag โฟลเดอร์ s ลงในพื้นที่ด้านซ้ายบนดังที่แสดงไว้ด้านล่างข้อมูลของคุณควรมีลักษณะดังนี้แอ็ปพลิเคชัน Elements ของภูมิภาคประกอบด้วยแอ็พพลิเคชัน FCAT VR Analyzer ประกอบด้วยสามภูมิภาคและแต่ละภูมิภาคสามารถปรับขนาดโดยใช้เมาส์ ตามต้องการไฟล์ใส่หรือไดเรคทอรีภาคส่วนหลักจะช่วยให้สามารถจัดการและจัดการกับข้อมูล VR ที่เก็บข้อมูลได้ซึ่งคุณสามารถกรองจัดเรียงและเปลี่ยนชื่อข้อมูลการใช้ตัวกรองเป็นวิธีที่ยอดเยี่ยมในการจัดเรียงข้อมูลจำนวนมหาศาล ข้อมูลแบบมีเงื่อนไขมีตัวกรองเพื่อรวมและยกเว้นข้อมูลจากคอลัมน์ข้อมูลใด ๆ เมนูแบบเลื่อนลงอนุญาตให้มีการกรองข้อมูลได้สูงสุดสี่คอลัมน์ส่วนหัวของคอลัมน์เหล่านี้สามารถเปลี่ยนแปลงได้โดยเลือกเมนูแบบเลื่อนลงและเลือกส่วนหัวของคอลัมน์อื่น ถูกกรองตามที่แสดงด้านล่างคลิกที่แถวข้อมูลเพื่อเลือกและคลิกอีกครั้งเพื่อยกเลิกการเลือกแถวหลายแถวสามารถเลือกได้โดยการคลิกและลากเมาส์ลงมาเหนือข้อมูลและสามารถเลือกข้อมูลทั้งหมดได้โดยการกด Ctrl A. Clicking Clear Selection จะล้างข้อมูลใด ๆ ที่ได้ถูกเลือกมาแล้วและคลิก Clear Files จะลบข้อมูลทั้งหมดออกจากหน้าต่างข้อมูลคลิก Hide Unselected จะซ่อนข้อมูลที่ยังไม่ได้เลือกไว้ Save Selected Stats. Clicking Save Selected Stats จะเปิดหน้าต่าง ข้อมูลที่สามารถบันทึกและส่งไปยัง NVIDIA เพื่อช่วยในการแก้ปัญหาคลิกปุ่ม Plot จะ สร้างแผนภูมิสำหรับข้อมูลทั้งหมดที่ได้รับการเลือกคลิกปุ่มบันทึกจะช่วยให้พล็อตถูกบันทึกลงในไฟล์หมายเหตุ: มีชุดข้อมูลจำนวนมากถึงแปดชุดในขณะนี้ได้รับการสนับสนุนการสร้างและการใช้งานแผนภูมิการใช้เมาส์ในการวางแผนสามารถทำได้อย่างง่ายดาย ย้ายไปรอบ ๆ โดยใช้เมาส์ซึ่งจะช่วยให้แผนภูมิเป็นศูนย์กลางและซูมตามที่ต้องการใช้เมาส์กลางเพื่อซูมเข้าและออกการเลือกบรรทัดจะเปลี่ยนเป็นสีขาวเพื่อแสดงว่าได้เลือกไว้แล้วหมายเหตุเส้นแนวตั้งสีน้ำเงินคือบริเวณที่ เส้นกราฟถูกเลือกโดยใช้เมาส์และเส้นแนวตั้งสีเหลืองจะเดินตามหลังพล็อตอย่างต่อเนื่องคลิกขวาที่พล็อตจะแสดงเมนูพล็อตซึ่งจะช่วยให้คุณจัดการกับเส้นล็อตเตอรี่ที่คุณมีได้ selected. Chart line colors สามารถเปลี่ยนได้โดยใช้ตัวเลือกนี้ก่อนอื่นให้เลือกเส้นกราฟโดยคลิกที่มันซึ่งจะเปลี่ยนเป็นสีขาวจากนั้นคลิกขวาบนพล็อตและเลือก Set Color ในตัวอย่างนี้เราเลือก green เป็นบรรทัดใหม่ของเรา color. Use เลือกนี้ ion เพื่อตัดจุดเริ่มต้นและจุดสิ้นสุดของเส้นกราฟซึ่งเป็นประโยชน์เมื่อคุณมีข้อมูลนอกพื้นที่มาตรฐานเช่นเมนูข้อมูลพิเศษนี้ไม่เพียง แต่จะมีผลผิดพลาดในแผนภูมิ แต่อาจส่งผลเสียต่อข้อมูล FPS ได้รวมทั้งข้อมูลอื่น ๆ รวมทั้ง จำนวนเฟรมที่ลดลงและเฟรมสังเคราะห์ใช้เส้นสีน้ำเงินและสีเหลืองเพื่อตั้งค่าพื้นที่ซึ่งช่วยให้สามารถตัดขอบข้อมูลเริ่มต้นและสิ้นสุดจากแผนภูมิก่อนอื่นให้เลือกจุดเริ่มต้นโดยการเลือกเส้นกราฟด้านซ้ายคลิกตำแหน่งที่คุณต้องการ เริ่มต้นการตัดแต่งข้อมูลแล้วเลือกจุดสิ้นสุดด้วยคลิกขวาเลือกตั้งค่าภูมิภาคเมื่อเลือกพื้นที่ที่ต้องการเพื่อตัดข้อมูลของคุณหมายเหตุ FPS และข้อมูลอื่น ๆ จะได้รับผลกระทบจากพื้นที่ใหม่ที่คุณตั้งไว้ เส้นที่จะตัดกันกันเราตัดสินใจที่จะตั้งค่าช่วงระหว่าง 2 วินาทีและ 12 วินาทีการตั้งค่านี้จะช่วยให้แผนภูมิเส้นทั้งหมดถูกปรับตั้งให้เป็นเวลาเริ่มต้น 0 วินาทีในแผนภูมิเมื่อภูมิภาคเหล่านี้ได้รับการตั้งค่าโดยใช้แนวตั้งสีน้ำเงินและสีเหลือง nes คลิกขวาที่พล็อตและเลือก Move to 0 0 all. Once เสร็จสิ้นทุกบรรทัดควรเริ่มต้นที่จุด 0 วินาทีบนแกน X. ทราบว่าเส้นกราฟที่ใช้ในตัวอย่างข้างต้นไม่สอดคล้องกันถูกต้อง ควรย้ายเส้นก่อนแล้วตัดแต่งด้วยการตั้งค่าพื้นที่หากต้องการยกเลิกการตัดแต่งให้เลือกเส้นกราฟคลิกขวาจากนั้นเลือก Clear Times หมายเหตุคุณจะต้องทำแบบนี้เป็นรายบุคคลสำหรับแต่ละแผนภูมิ line. Clear Times ทั้งหมดนี้ทำงานได้เช่น Clear Times แต่มีผลต่อเส้นกราฟทั้งหมดในพล็อตหากต้องการย้ายเส้นกราฟเลือกพื้นที่ใหม่ที่คุณต้องการจะย้ายโดยใช้ปุ่มเมาส์มากซึ่งจะวางเส้นแนวตั้งสีน้ำเงิน จากนั้นคลิกที่แผนภูมิโดยใช้ปุ่มเมาส์ขวาเพื่อวางเส้นสีเหลืองตรงตำแหน่งที่คุณต้องการย้ายแผนภูมิหลังจากคลิกย้ายชุดข้อมูลเส้นกราฟจะย้ายไปยังพื้นที่ถ้าคุณบังเอิญย้ายไปยังจุดที่ไม่ถูกต้อง เลือกบรรทัดคลิกขวาที่พล็อตและเลือกล้างเวลาเพื่อรีเซ็ตแผนภูมิ line. Move Dataset เป็น 0 0. นี่จะปรับเส้นกราฟทั้งหมดลงในพล็อตย้อนกลับไปที่ 0 วินาทีบนแกน X. เพิ่มลงใน Interval Plot. Interval Plot จะแสดงข้อมูลสำหรับเฟรมใหม่เฟรมสังเคราะห์และเฟรมที่ลดลง Interval Plot เลือกเส้นกราฟคลิกขวาที่พล็อตแล้วเลือก Add to Interval Plot. Interval Plot ทำให้ง่ายต่อการดูกรอบสังเคราะห์และเฟรมที่เกิดขึ้นในแอ็พพลิเคชัน VR ระหว่างการจับภาพ SW คุณสามารถเปรียบเทียบ แผนภูมิเพื่อ Interval Plot เพื่อดูว่าเฟรมสังเคราะห์ที่เกิดขึ้นในการจับ VR ด้านล่าง Everest กับ MRS 0 แสดงเฟรมสังเคราะห์ระหว่าง 2 5 และ 6 วินาทีที่เส้นกราฟ strays เหนือ 11 1 ms. To เพิ่ม Interval Plot อื่นเพียงเลือกอื่น คลิกขวาที่พื้นที่ plot และเลือก Add to Interval Plot ในครั้งนี้เราเลือกเส้นตาราง MRS 3 ซึ่งแสดงว่าไม่มีเฟรมสังเคราะห์หรือลดลงเกิดขึ้นเมื่อใช้ MRS 3 ใน VR กับ Everest โดยใช้ Medium Settings โดยมีดังต่อไปนี้ ทำตามขั้นตอนเหล่านี้แล้ว สามารถแสดงภาพรวมของประสิทธิภาพ frametimes, reprojection และเฟรมที่ลดลงได้ทันทีถ่ายทอดประสบการณ์การเล่นเกม VR บน GPU ในเกมที่เข้ากันได้ใด ๆ และโดยการรวมแผนภูมิหลายประสิทธิภาพด้วยการตั้งค่าต่างๆสามารถเปรียบเทียบได้โดยตรง, เพิ่มเติมการปรับปรุงการนำเสนอผลการแนะนำเกมสำหรับการทดสอบ Benchmarking ทีม VR FCAT เป็นครั้งแรกทีมงานด้านเทคนิคของเราได้ทำงานอย่างใกล้ชิดกับสื่อมวลชนผู้ผลิตฮาร์ดแวร์และนักพัฒนาเกมเพื่อพิจารณาเกมและสถานการณ์มาตรฐานที่ง่ายต่อการได้ผลลัพธ์ที่สม่ำเสมอและสามารถทำได้อย่างง่ายดาย ช่วยให้คุณสามารถทดสอบน้ำของ FCAT VR benchmarking ได้ด้านล่างนี้คุณสามารถดูคำแนะนำเหล่านี้ได้การบันทึกภาพเมื่อคุณเก็บ lightsaber และสิ้นสุดการบันทึกเมื่อเรืออิมพีเรียลกำลังขึ้นนอกจากเกมเหล่านี้ยังมีการปรับปรุง NVIDIA VRWorks การปรับปรุงประสิทธิภาพและ คุณภาพของภาพด้วย FCAT VR ประโยชน์ของเทคโนโลยีเหล่านี้สามารถวัดได้อย่างถูกต้องและแสดงเป็นครั้งแรก time. NVIDIA VRWorks ภาพรวมซอฟต์แวร์ NVIDIA VRWorks เป็นชุด APIs ตัวอย่างโค้ดและไลบรารีสำหรับนักพัฒนาซอฟต์แวร์ VR อย่างกว้างขวางไม่ว่าจะเป็นการพัฒนาแอพพลิเคชัน VR ที่ก้าวล้ำหรือการออกแบบหน้าจอแสดงผลแบบหัวต่อใหม่ NVIDIA VRWorks ช่วยให้นักพัฒนาซอฟต์แวร์บรรลุประสิทธิภาพสูงสุดและต่ำสุด latency และความเข้ากันได้แบบ Plug-and-Play VRWorks มีคุณสมบัติดังต่อไปนี้ NVIDIA VRWorks สำหรับนักพัฒนาชุดหูฟังด้วย Direct Mode ไดรเวอร์ NVIDIA ถือว่าชุดหูฟัง VR เป็นจอแสดงผลแบบหัวต่อที่สามารถเข้าถึงได้เฉพาะกับแอพพลิเคชัน VR แทนที่จะเป็นจอภาพทั่วไปของ Windows ที่เดสก์ทอปของคุณแสดง up ให้การสนับสนุน Plug and Play ที่ดีขึ้นและการทำงานร่วมกันได้สำหรับชุดหูฟัง VR Context Priority ให้การพัฒนาชุดหูฟังด้วยการควบคุมการตั้งเวลา GPU เพื่อรองรับคุณลักษณะความเป็นจริงเสมือนขั้นสูงเช่น timewarp แบบอะซิงโครนัสซึ่งช่วยลดเวลาแฝงและปรับภาพได้อย่างรวดเร็วเมื่อผู้เล่นหันศีรษะ, โดยไม่จำเป็นต้องแสดงผลใหม่ frame. Front buffer renderting ลด latenc y โดยการแสดงผลโดยตรงไปยังบัฟเฟอร์ด้านหน้าการแรเงาแบบ Multi-Res เป็นเทคนิคการสร้างภาพใหม่สำหรับ VR โดยแต่ละส่วนของภาพจะแสดงผลที่ความละเอียดที่ดีกว่าความหนาแน่นของพิกเซลของภาพที่บิดเบี้ยว Multi-Res Shading ใช้ Maxwell s multi สถาปัตยกรรมการฉายเพื่อสร้างมุมมองที่ปรับขนาดได้หลายแบบในแบบ single pass ส่งผลให้การปรับปรุงประสิทธิภาพได้ดีการจับคู่แบบจับคู่แบบคู่ใช้สถาปัตยกรรม Multi-Projection พร้อมกันของ GPU ของ NVIDIA Pascal เพื่อให้การปรับปรุงประสิทธิภาพในการแรเงาพิกเซลมีคุณลักษณะที่ดีขึ้นเมื่อใช้งาน multi-res Shading by rendering to a surface that more closely approximates the lens corrected image that is output to the headset display This avoids rendering many pixels that would otherwise be discarded before the image is output to the VR headset. Traditionally, VR applications have to draw geometry twice -- once for the left eye, and once for the right eye Single Pass Stereo uses the new Simultaneous Mult i-Projection architecture of NVIDIA Pascal-based GPUs to draw geometry only once, then simultaneously project both right-eye and left-eye views of the geometry This allows developers to effectively double the geometric complexity of VR applications, increasing the richness and detail of their virtual world. VR SLI provides increased performance for virtual reality apps where multiple GPUs can be assigned a specific eye to dramatically accelerate stereo rendering With the GPU affinity API, VR SLI allows scaling for systems with two or more GPUs VR SLI is supported for DirectX and OpenGL. In addition, NVIDIA VRWorks includes components that cater to professional VR environments like Cave Automatic Virtual Environments CAVEs , immersive displays, and cluster solutions. We will go into more detail about Multi-res Shading and VR SLI later To learn more about other NVIDIA VRWorks, visit. Multi-Res Shading MRS. Multi-Res Shading is a rendering technique that helps reduce rendering cost without imp acting perceived image quality The screen is divided into multiple viewports, and by using the Maxwell and Pascal GPU hardware-based multi-projection feature, the entire scene geometry can be broadcasted to each viewport, and geometry that does not touch particular viewports is culled thrown away quickly The outer viewport images are rendered at lower resolution, while the center viewport is rendered at full resolution Overall performance is improved while not reducing perceived image quality. Issues with Lens Distortion and Warped Images. The image presented on a virtual reality headset has to be warped to counteract the optical effects of the lenses. Instead of being square, the images look curved and distorted, but when viewed through appropriate lenses, the image appears accurate. GPUs do not natively render into this sort of distorted view Rather, current VR platforms use a two-step process that first renders a normal image left , then second does a post-processing pass that resamples and prewarps the image to the distorted view right While this solution works, it is inefficient because there is oversampling at the edges. In the image above, the center green is nearly unaffected, but the sides red are squished The result is that many of the rendered pixels along the edges are discarded when creating the final, warped image Generating pixels that will just get discarded later is inefficient and wasted work. Subdividing and Scaling. NVIDIA Multi-Res Shading works by subdividing the image into separate viewports As described above, the Maxwell and Pascal multi-projection hardware feature is able to send scene geometry to each viewport without extra processing except for culling geometry not hitting those viewport areas. Each viewport is then warped, and the maximum sampling resolution needed within that portion of the image is closer to the final displayed pixels The center viewport is also warped and stays nearly the same This better approximates the warped image, but wi thout over shading And because fewer pixels are shaded, the rendering is faster Depending on the settings for the Multi-Res Shading, savings can be anywhere from 25 to 50 of the pixels This translates into a 1 3x to 2x pixel shading speedup. Multi-res Shading is now integrated into Epic s UE4 UE4-based VR applications such as Everest VR by Slfar Studios and Thunderbird the Legend Begins by InnerVision Games have also integrated this technology with many more apps to come. Multi-Res Shading integrations for Unity and Max Play engines are currently in progress These engine integrations will make it easy for more VR developers to integrate the technologies into their apps. In some situations MRS Level 1 MRS 1 will increase quality by supersampling the the center viewport The quality increase may cause a decrease in performance In the current Unreal Engine 4 branch, MRS Level 1 is defined relative to the lens parameters that will give this visual quality increase without the large performance degradation due to typical sumpersampling methods. Benefits of MRS. Quality settings can be increased since MRS reduces the rendering cost of VR games For example, the graphics quality preset in Raw Data can be increased from Low to Medium with a GeForce GTX 1060 when Multi-Res Level 2 is used. With VRWorks disabled, lower quality settings must be used, which does not include anti-aliasing or shadows. VRWorks with MRS allows for higher-quality settings The Medium Preset with higher quality shadows makes the control panel look more realistic and polished. Lens Matched Shading LMS. The explosive growth of interest in VR applications has increased the importance of supporting displays which require rendering to non-planar projections VR displays have a lens in between the viewer and the display, which bends and distorts the image For the image to look correct to the user, it would have to be rendered with a special projection that inverts the distortion of the lens Then when the image is viewe d through the lens, it will look undistorted, because the two distortions cancel out. Traditional GPUs do not support this type of projection instead they only support a standard planar projection with a uniform sampling rate Producing a correct final image with traditional GPUs requires two steps first, the GPU must render with a standard projection, generating more pixels than needed Second, for each pixel location in the output display surface, look up a pixel value from the rendered result from the first step to apply to the display surface. Without Lens Matched Shading, a VR headset renders a rectangle and then squeezes it to the dimensions of the display and lens. Final image required for correct viewing through the HMD optics. This process renders 86 more pixels than necessary, and it is this performance-sapping wastefulness that Lens Matched Shading fixes To achieve this, Pascal s Simultaneous Multi-Projection technology divides the original rectangle output into four quadrants, an d adjusts them to the approximate shape of the final image. First-pass image with Lens Matched Shading. In technical terms, the final image shown in the headset is 1 1 Megapixels per eye, the first-pass image without Lens Matched Shading is 2 1 Megapixels per eye, and with Lens Matched Shading is just 1 4 Megapixels per eye That s a 50 increase in throughput available for pixel shading, which translates into a 15 performance improvement over Multi-Res Shading, without any reduction in peripheral image quality. One step in determining the Lens Matched Shading parameters is to check the sampling rate compared to the sampling rate required for the final image The objective for the default, conservative , setting of Lens Matched Shading is to always match or exceed the sampling rate of the final image The image below demonstrates an example comparison for the preceding lens matched shading image. First Pass image sampling rate compared to the final image. Blue indicates pixels that were sampled at a higher rate than required, gray indicates a matched rate, and any red pixels would indicate initial sampling that was below the rate in the final image The absence of red pixels confirms that the setting matches the objective. In addition, developers have the option to use different settings for example one could use a setting that is higher resolution in the center and undersampled in the periphery, to maximize frame rate without significant visual quality degradation. Single Pass Stereo. Traditionally, VR applications have to draw geometry twice once for the left eye, and once for the right eye Single Pass Stereo uses the new Simultaneous Multi-Projection architecture of NVIDIA Pascal-based GPUs to draw geometry only once, then simultaneously project both right-eye and left-eye views of the geometry This allows developers to effectively double the geometric complexity of VR applications, increasing the richness and detail of their virtual world. With VR SLI, multiple GPUs can be as signed a specific eye to dramatically accelerate stereo rendering VR SLI even allows scaling for PCs with more than two GPUs. VR SLI provides increased performance for virtual reality applications where multiple GPUs can be assigned to a specific eye the same number of GPUs are assigned to each eye to dramatically accelerate stereo rendering With the GPU affinity API, VR SLI allows scaling for systems with 2 GPUs VR SLI is supported for DirectX and OpenGL. AFR SLI Not Appropriate for VR. Alternate-frame rendering AFR is the method used for SLI on traditional monitors GPUs using AFR SLI trade off work on entire frames In the case of two GPUs, the first GPU renders the even frames and the second GPU renders the odd frames The GPU start times are staggered by a half-a-frame to maintain regular frame delivery to the display. AFR SLI works reasonably well to increase frame rates relative to a single-GPU system, but it doesn t help with latency So this method is not the best model for VR. How VRI SLI Works. A better way to use two GPUs for VR rendering is to split the work of drawing a single frame across both GPUs With VR SLI, this means rendering the frames for each eye on their own individual GPU. The frame for the left eye is rendered on the first GPU, and the frame for the right eye is rendered on the second GPU at the same time. Parallelizing the rendering of the left - and right-eye frames across two GPUs yields a massive improvement in performance, allowing VR SLI to improve both frame rate and latency relative to a single-GPU system. Note that unlike traditional AFR SLI, which uses a profile in the NVIDIA driver, VR SLI requires application side integration to enable performance scaling VR SLI is now integrated into applications such as Valve s The Lab, ILMxLAB s Trials on Tatooine, and Croteam s Serious Sam VR The Last Hope, with many more in progress including UE4, Unity and Max Play engine integrations. NVIDIA VRWorks Benchmarks With FCAT VR. If you re using a GeForce GTX 10-Series GPU you can utilize all of our VRWorks technologies to improve performance and enhance image quality Below, you can view benchmarks showing the benefits of Multi-Res Shading, Lens Matched Shading and VR SLI. Everest VR MRS and LMS. To access MRS settings in Everest VR, press the menu button on a Vive controller and select Graphic Settings The Graphic Settings menu will appear and the first settings option will be Multires Press the - or button to toggle between the different MRS settings. NOTE The settings below were given names to more easily differentiate them by GPU. EVEREST VR MRS Settings. The Settings Explained. Lens Matched Shading LMS NVIDIA specific optimization that provides performance improvements in pixel shading by avoiding the rendering of pixels that end up being discarded in the final view sent to the HMD after the distortion process MRS is supported by Maxwell and Pascal architecture GPUs. Weather Effects This controls the amount of particle effects used throughou t the experience to simulate weather The default value is 0 4, while 0 0 turns them off Higher values will result in more dramatic effects. SuperSampling By default, Unreal renders into a screen buffer that is 40 higher than the Vive display and scales the result down to the native resolution This results in crisper textures This default setting is displayed as 140 Increasing the screen percentage will result in increasingly crisper images, but at the cost of performance High-end GPUs should have room to increase this significantly. LOD Distance Geometry has a series of increasingly higher levels of detail based on the distance from the viewer This multiplier affects at what distance higher density geometry is activated Lower is better. Everest FCAT VR MRS Charts. The following charts show a comparison of MRS settings across the GTX 1060, GTX 1080, and GTX 1080 Ti GPUs This data was captured using the FCAT VR Software Capture Tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Data Analyzer was used to generate the charts. Everest MRS with GTX 1060 Medium Settings. Everest MRS with GTX 1080 High Settings. Everest MRS with GTX 1080 Ti High Settings. Everest FCAT VR LMS Charts. The following charts show a comparison of LMS settings across the GTX 1060, GTX 1080, and GTX 1080 Ti GPUs This data was captured using the FCAT VR Software Capture tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Data Analyzer was used to generate the charts. Everest LMS with GTX 1060 Medium Settings. Everest LMS with GTX 1080 High Settings. Everest LMS with GTX 1080 Ti High Settings. NVIDIA VR Funhouse MRS. VR Funhouse features the hottest simulation and rendering technologies, all supporting an incredibly engaging VR game. VR Funhouse is built using the Unreal Engine and features the following technologies used in AAA game development. Destruction Destroy rigid bodies. HairWorks The best hair and fur in the business. Flow Volum etric fire and smoke. FleX Particle based physics liquids and solids. VRWorks Advanced VR rendering techniques for faster performance. VR Funhouse MRS Hardware Requirements. Settings Used. NOTE These settings were chosen to best show MRS scaling. Obtain the correct build of NVIDIA VR Funhouse. In order to modify MRS settings in VR Funhouse, you must obtain a particular build of VR Funhouse Follow this procedure. Subscribe to NVIDIA VR Funhouse on Steam. In Steam, right click on NVIDIA VR Funhouse and select Properties. Select the Betas tab. Select the beta list drop down arrow. Select 1 3 3-1157350-vrworks-mrs branch. Steam will automatically download the different beta branch that includes numpad keys to change MRS levels. Changing the MRS Settings in VR Funhouse Once you successfully obtained the 1 3 3-1157350-vrworks-mrs build of VR Funhouse, then you can use the following numpad keys to change the MRS level while in game Type the following for each of the MRS Levels. CRITICAL NOTE Settings get re set every time a new level is started Make sure to set your MRS level again before testing. Benchmark VR Funhouse. The MRS settings automatically change every time a scene mini game is changed So ensure that you select the appropriate MRS level at the beginning of every scene. Run-to-run variance can pose a significant problem when running benchmarks in VR, especially for scenarios which involve chance For this reason, we recommend that the Clown Painter scene for benchmarking VR Funhouse Follow this procedure. Launch NVIDIA VR Funhouse from Steam. From the opening scene, select the Settings button on the right. Choose the appropriate settings level. Push the number 1 button on your keyboard to load the Clown Painter scene. Select the appropriate MRS level by pushing the corresponding number on the numpad. Begin recording your benchmark with FCAT VR Software Capture. Use one hand to shoot a goo gun into a clown mouth until the balloon breaks or the gun runs out of goo. Stop shooting from that han d to let the goo gun recharge. Use the other hand to continue shooting goo into a clown mouth. Repeat this alternating pattern for 30 60 seconds The idea is to always have goo shooting and interacting with the geometry in the scene. Stop the benchmark. VR Funhouse FCAT VR MRS Charts. The following charts show a comparison of MRS settings across the GTX 1060, GTX 1080, and GTX 1080 Ti GPUs This data was captured using the FCAT VR Software Capture tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Analyzer was used to generate the charts. VR Funhouse MRS with GTX 1060 Low Settings. VR Funhouse MRS with GTX 1080 High Settings. VR Funhouse MRS with GTX 1080 Ti High Settings. Sports Bar VR MRS. Sports Bar VR VR demonstrates more than just how pool physics will be experienced in the VR space Players will be able to interact with all sorts of objects, create trick shots with any plates, bottles and other items in the pool hall, play virtual darts, and take part in the time-honored pastime of throwing empty beer bottles against the wall. With the most advanced proprietary physics engine honed for billiards realism, Sports Bar VR VR aims to deliver the most interactive VR pool experience in the most chilled VR hangout. Sports Bar VR MRS Hardware Requirements. Settings Used. Consider the following Super Sampling and Sharpening settings after selecting the presets below. Sports Bar VR MRS Presets. MRS settings reduce instances of dropped frames and warp misses on the GTX 1080 With MRS2 settings, dropped frames and warp misses are eliminated entirely. Adjusting the MRS level in Sports Bar VR. MRS levels in Sports Bar VR can be adjusted by pressing CTRL 0, 1, 2, 3 MRS level 0 is considered disabled MRS level has an inverse relationship with GPU rendering time and dropped frames As MRS level increases GPU rendering time and number of dropped frames decreases providing a better user experience with little or no observable difference in image quality. MRS 1 CT RL 1 MRS Level 1.MRS 2 CTRL 2 MRS Level 2.MRS 3 CTRL 3 MRS Level 3.Caution Do NOT use the numpad keys when changing MRS levels Numpad keys may cause Oculus Rift to change ASW modes which will invalidate your test results. NOTE SportsBarVR may launch with MRS enabled by default If you plan to test the effects of MRS, explicitly choose the MRS level for each test. Sports Bar VR FCAT VR MRS Charts. The following charts show a comparison of MRS settings across the GTX 1060, GTX 1070, and GTX 1080 GPUs This data was captured using the FCAT VR Software Capture Tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Data Analyzer was used to generate the charts. Sports Bar VR MRS with GTX 1060 Medium Settings. Sports Bar VR MRS with GTX 1080 Ultra Settings. Sports Bar VR MRS with GTX 1080 Ti Ultra Settings. Neo-Shinjuku 2271 The massive and seemingly benevolent Eden Corporation owns the world The elite hacker resistance movement SyndiK8 has unearthed the sinister reality behind Eden Corp s newest line of robotic products As one of SyndiK8 s top operatives, your mission is simple infiltrate Eden Tower, steal one geopbyte of data, and get out alive bringing Eden Corp down in your wake. Built from the ground up for virtual reality, Raw Data s action combat gameplay, intuitive controls, challenging enemies, and sci-fi atmosphere will completely immerse you within the game world Go solo or team up with a friend and become the adrenaline-charged heroes of your own futuristic technothriller You will put your wits, boldness, and endurance to the test. Active VR gameplay turns you into a controller, with instant reflex access to an arsenal of advanced weapons and cutting-edge nanotech powers Shared spaces with avatars and motion tracking encourage players to physically communicate through body language and environment interaction. Raw Data MRS Hardware Requirements. Go to Raw Data s main menu, select Options, then Graphics The last entry under the graphics settings will be Multi-Res Level You can select from these MRS settings Off, 1, 2, and 3.Settings Used. Raw Data FCAT VR MRS Charts. The following charts show a comparison of MRS settings across the GTX 1060, GTX 1080, and GTX 1080 Ti GPUs This data was captured using the FCAT VR Software Capture tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Data Analyzer was used to generate the charts. Raw Data with GTX 1060 Low Settings. Raw Data with GTX 1080 Epic Settings. Raw Data with GTX 1080 Ti Epic Settings. VR SLI provides increased performance for virtual reality apps where multiple GPUs can be assigned a specific eye to dramatically accelerate stereo rendering With the GPU affinity API, VR SLI allows scaling for systems with more than two GPUs. Serious Sam VR The Last Hope VR SLI. Simulating physics takes incredible processing power, and we found it by applying NVIDIA VRWorks technologies, including Multi-Res Shading and VR SLI, to increase rendering p erformance. Serious Sam VR The Last Hope VR SLI Hardware Requirements. From the Serious Sam VR The Last Hope main menu, slect Options then Performance. NOTE These settings were chosen to best show VR SLI scaling. Serious Sam VR The Last Hope FCAT VR SLI Charts. The following charts show a comparison of MRS settings across the GTX 1080 and GTX 1080 Ti GPUs This data was captured using the FCAT VR Software Capture tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Data Analyzer was used to generate the charts. Serious Sam VR Single vs SLI GTX 1080 Ultra Settings. Serious Sam VR Single vs SLI GTX 1080 Ti Ultra Settings. Trials on Tatooine VR SLI. Simulating physics takes incredible processing power, and we found it by applying NVIDIA VRWorks technologies, including Multi-Res Shading and VR SLI to increase rendering performance. Trials on Tatooine VR SLI Hardware Requirements. From the main menu, choose the desired preset before selecting start. NOTE These sett ings were chosen to best show VR SLI scaling. Trials on Tatooine FCAT VR SLI Charts. The following charts show a comparison of single vs dual SLI GPUs This data was captured using the FCAT VR Software Capture tool, which captures and analyzes dropped frames and warp misses in VR gameplay The FCAT VR Data Analyzer was used to generate the charts. Trials on Tatooine with Single vs SLI GTX 1080 Ultra Settings. Trials on Tatooine Single vs SLI GTX 1080 Ti Ultra Settings. Before now, Virtual Reality testing relied on general benchmarking tools, synthetic tests, and hacked-together solutions, which failed to reveal the true performance of GPUs in VR games With FCAT VR, for the first time we re able to generate data for frametimes, dropped frames, runtime warp dropped frames, and Asynchronous Space Warp ASW synthesized frames, revealing stutters, undesirable interpolation, and the experience received when gaming on any GPU in the tested Virtual Reality game. In other words, we can now see the true performance of all GPUs in Virtual Reality games, giving buyers accurate information that can inform their purchasing decisions And for reviewers, they can accurately assess GPUs in VR for the first time, making their in-depth examinations even more helpful and authoritative. BLACK BUG BT-71F. BLACK BUG BT-71F -, . HOOK-UP, HOOK-UP , , HOOK-UP. BLACK BUG BT-71F , . -, DID. . - DID. - . . . HOOK-UP. ..AntiHiJack . . . . . 3 . . . . . . . . BLACK BUG BT-71F.
No comments:
Post a Comment