ปริมาณงาน AI ของคุณในคลาวด์: ในที่สุด Google ก็ปล่อย TPU เบต้า

วิดีโอ: Google เกี่ยวกับวิธีที่ TensorFlow Lite ช่วยสร้าง AI ที่ดีขึ้นสำหรับสมาร์ทโฟน Pete Warden ซึ่งเป็นผู้นำทีม TensorFlow มือถือ / ทีมฝังตัวที่ Google ในการนำการเรียนรู้ของเครื่องไปยังโทรศัพท์และคอมพิวเตอร์บอร์ดเดี่ยว
สร้างดาดฟ้าสไลด์ระดับเสียงหรืองานนำเสนอ? นี่คือประเด็นใหญ่:
  • Google ได้เปิดตัวตัวเร่งความเร็วการเรียนรู้ของเครื่อง Cloud TPU ในรุ่นเบต้าซึ่งอาจช่วยเร่งการฝึกอบรมโมเดลการเรียนรู้ของเครื่อง
  • องค์กรที่ต้องการเพิ่มความสำคัญกับการเรียนรู้ของเครื่องและ AI ควรพิจารณาแพลตฟอร์ม Google Cloud เป็นตัวเลือกที่ทำงานได้สำหรับปริมาณงานของพวกเขา

Google เปิดตัวหน่วยประมวลผล Tensor (TPU) ในรุ่นเบต้าบนแพลตฟอร์ม Google Cloud ในวันจันทร์ที่เสนอทางเลือกที่แข็งแกร่งสำหรับองค์กรในการเพิ่มความพยายามในด้านปัญญาประดิษฐ์ (AI) และการเรียนรู้ของเครื่อง

ประกาศผ่านทางบล็อกโพสต์ TPU จะไปไกลต่อการเร่งการฝึกอบรมโมเดลการเรียนรู้ของเครื่องจักร - การสร้างแบบจำลองที่สามารถฝึกอบรมข้ามคืนแทนที่จะเป็นวันหรือสัปดาห์ Google ประกาศการทำงานกับ TPU เป็นครั้งแรกเมื่อหลายปีก่อน แต่ตอนนี้ลูกค้าเพิ่งเปิดตัวคลาวด์

การเปิดตัว TPUs ช่วยเพิ่มจำนวนตัวเลือกการคำนวณที่มีให้กับ บริษัท ที่ต้องการเรียนรู้เครื่องจักรอย่างจริงจังและ AI ทำงานในระบบคลาวด์ ในเดือนตุลาคม 2560 Amazon Web Services (AWS) ทำให้ NVIDIA Tesla V100 GPUs พร้อมใช้งานใน EC2 เป็นโฮสต์ของเครื่องมือการเรียนรู้ของเครื่องอื่น ๆ และ Microsoft ก็ทำ GPU เดียวกันในปลายปี 2560 สำหรับปริมาณงาน HPC และ AI

ด้วยความสำคัญที่เพิ่มขึ้นของ AI และการเรียนรู้ของเครื่องจักรความสามารถในการประมวลผลเวิร์กโหลดและฝึกอบรมโมเดลเหล่านี้จะกลายเป็นตารางเดิมพันของผู้ให้บริการคลาวด์ชั้นนำ Google ได้สร้างชื่อให้ตัวเองเป็นหนึ่งในชื่อชั้นนำในด้านการเรียนรู้ของเครื่องจักรและการเรียนรู้อย่างลึกล้ำและความพร้อมใช้งานของ TPU ควรเป็นสิ่งที่พิจารณาอย่างจริงจังสำหรับลูกค้าบนคลาวด์ที่กำลังมองหาสถานที่ทำงาน AI และภาระการเรียนรู้

ในโพสต์บล็อกของตน Google อธิบาย Cloud TPUs เป็น "ตัวเร่งความเร็วฮาร์ดแวร์ที่ออกแบบโดย Google ซึ่งได้รับการปรับให้เหมาะสมเพื่อเพิ่มความเร็วและขยายปริมาณงาน ML เฉพาะที่โปรแกรมด้วย TensorFlow" เครื่องมือเร่งความเร็วเหล่านี้เป็นส่วนสำคัญของศูนย์ข้อมูลของ Google ตั้งแต่ปี 2558 ตามที่ระบุไว้ใน ZDNet ซึ่งเป็นเว็บไซต์น้องสาวของเราและให้ประสิทธิภาพการทำงานของจุดลอยตัว 180 teraflops บนกระดานเดียว ในงาน Google I / O ล่าสุด CEO Sundar Pichai กล่าวว่า Google กำลังคิดทบทวนสถาปัตยกรรมการคำนวณเพื่อสร้าง "ศูนย์ข้อมูล AI- แห่งแรก"

แทนที่จะต้องแชร์คลัสเตอร์นักวิทยาศาสตร์ด้านข้อมูลสามารถเข้าถึง Cloud TPU ที่เชื่อมต่อกับเครือข่ายผ่าน Google Compute Engine VM ได้ พวกเขาสามารถควบคุมและปรับแต่งสิ่งเหล่านั้นเพื่อตอบสนองความต้องการของภาระงานของพวกเขา

นอกเหนือจากการนำเสนอ TPU แล้วแพลตฟอร์ม Google Cloud ยังให้การเข้าถึงซีพียูเช่นซีรีย์ Intel Skylake และ GPU เช่น NVIDIA Tesla V100 ดังกล่าวข้างต้น การเรียกเก็บเงินของ Cloud TPU คำนวณโดยที่สองในอัตรา $ 6.50 ต่อ Cloud TPU ต่อชั่วโมงโพสต์กล่าวว่า

ในโพสต์ที่แยกต่างหาก Google ยังประกาศว่า GPU ใน Kubernetes Engine อยู่ในช่วงเบต้า สิ่งเหล่านี้สามารถเพิ่มความพยายามที่คล้ายกันในการเรียนรู้ของเครื่องและการประมวลผลภาพ

บริการจดหมายข่าวคลาวด์และทุกอย่าง

นี่คือทรัพยากรไปสู่ล่าสุดของ AWS, Microsoft Azure, แพลตฟอร์ม Google Cloud, XaaS, ความปลอดภัยบนคลาวด์และอีกมากมาย จัดส่งวันจันทร์

สมัครวันนี้

© Copyright 2021 | pepebotifarra.com