Intel Lake Crest Chip พัฒนาและวิจัยมาเพื่อ DNN/AI Sector – 32 GB HBM2, 1 TB/s Bandwidth, ประมวลผลเร็วที่ 8 Tb/s, ประสิทธิภาพมากกว่า GPU รุ่นปัจจุบัน

0

Intel Lake Crest Chip พัฒนาและวิจัยมาเพื่อ DNN/AI Sector – 32 GB HBM2, 1 TB/s Bandwidth, ประมวลผลเร็วที่ 8 Tb/s, ประสิทธิภาพมากกว่า GPU รุ่นปัจจุบัน

 

Intel เปิดเผยรายละเอียดเพิ่มเติมเกี่ยวกับ Lake Crest chip ที่วิจัยมาเพื่อ deep neural network sector โดยเฉพาะ. ตัวชิปใหม่นี้จะใช้โครงสร้างของ Nervana platform ซึ่งสามารถประมวลผลการคำนวณได้มหาศาลใน silicon ซึ่งจะมีประสิทธิภาพมากกว่า GPUs ณ ปัจจุบัน.

รายละเอียด Intel Lake Crest DNN Silicon  – จะมีศักยภาพมากกว่า GPUs ที่ใชักันอยู่ในปัจจุบัน

ด้วยจำนวนและอุตสาหกรรมที่ลงมาพัฒนาทางด้าน AI learning มากยิ่งขึ้น, ผู้ผลิต GPU อย่าง NVIDIA และ AMD ได้พัฒนาตัวชิปออกมาสำหรับการใช้งานใน DNN (Deep Neural Network) มากยิ่งขึ้น. ทาง Intel นำเอา Lake Crest silicon เข้ามาเล่นโดยให้เหตุผลว่ามันสามารถรองรับปริมาณงานและประสิทธิภาพได้เหนือกว่า DNN GPUs ที่มีใช้อยู่ทุกวันนี้. ตัวชิปจะมาพร้อมเทคโนโลจีที่พัฒนามาเพื่อ deep-learning จากตัว Nervana.

บริษัทซอร์ฟแวร์และฮาร์ดแวร์ได้เงินสนับสนุุจากทาง Intel ในเดือนสิงหาคม 2016 ที่ผ่านมามากกว่า $350 Million US. ตัวชิปรุ่นแรกนี้จะใช้เทคโนโลจีของ Nervana รุ่นใหม่และมันจะเป็นชิปรุ่น Lake Crest และจะตามด้วย “Knights Crest”. โครงสร้างของ Nervana platform นั้นมาพร้อมลักษณะที่เด่นๆที่มีอยู่ใน deep learning (DL) ซึ่งจะนำมาเพิ่มประสิทธิภาพให้กับตัวสินค้า แน่นอนรวมไปถึง Lake Crest และอีกตัวที่เพิ่งประกาศออกมา ARRIA FPGAs ซึ่งจะสามารถโปรแกรมสำหรับความต้องการแบบพิเศษเช่น AI learning/สมองเทียม. ทั้ง Lake Crest และ ARRIA FPGAs จะทำงานร่วมกันพร้อมด้วย Intel’s Xeon processors.

Intel Lake Crest Chips จะมีประสิทธิภาพทางด้านคำนวณที่มีจำนวนมากมหาศาล, 32 GB ที่เป็น HBM2 Memory และประมวลผลเร็วถึง 8 Terabits per Second/ต่อวินาที Memory Access Speeds

Lake Crest chip จะทำงานร่วมกับ Xeon Co-processor หรือเป็นคู่หูกัน แต่มันจะไม่เหมือนกับ Xeon Phi hardware. มันถูกสร้างมาเพื่อรองรับปริมาณงานที่มีจำนวนมหาศาลใน AI. ทาง Intel นั้นใช้สถาปัตยกรรมใหม่รู้จักกันในชื่อ “Flexpoint” ซึ่งจะถูกนำมาใช้ในส่วนที่เกี่ยวข้องในด้านคำนวณโดยเฉพาะหรือ arithmetic nodes ของ Lake Crest chip. ซึ่งจะทำให้การประมวลผลในด้านการคำนวณนั้นทำงานได้หนักมากขึ้นถึง 10 เท่าตัว. ตัวชิปยังออกแบบมาเป็น MCM (Multi Chip Module) design/ประกอบขึ้นมาจากหลายๆตัว.

ตัวชิปที่มี co-processor หรือผู้ช่วยตัวนี้จะมาพร้อม 32 GB ที่เป็น HBM2 memory. ซึ่งจะประกอบกันทั้งหมดสี่ชุดและแต่ละชุดเป็นแปดชั้นหรือ four 8-Hi stacks สามารถขับเคลื่อนและประมวลผลได้เร็วถึง 1 TB/s memory speeds โดยมีความเร็ว clock speeds ที่ 2 GHz. Lake Crest chips จะพร้อมให้ทดสอบไม่เกินไตรมาสที่สองของปี 2017 และจะผลิตตัวต้นแบบให้กับคู่ค้าไม่เกินสองไตรมาสสุดท้ายของปี 2017. ตอกย้ำอีกครั้งว่าความเร็วของมันในการประมวลผลนั้นขนาด 8 Terabits per second/ต่อวินาที.

Intel ยังเปิดเผยอีกว่าจัวจะมีออกมาหลายรุ่นด้วยกันแล้วแต่ลักษณะการใช้งานสำหรับ  AI learning. ตัวชิปมีค่า 12 bidirectional high-bandwidth และการต่อเชื่อมการถ่ายโอนข้อมูลนั้นจะไม่มีให้เห็นแต่จะเป็นแบบ interconnects หรือต่อเชื่อมมาพร้อมเสร็จจากภายใน. การต่อเชื่อมด้วยวิธีนี้หรือ inter-chip links จะมีค่า bandwidth ได้มากกว่ายี่สิบเท่าหากเทียบกับ PCI Express links.

ผังของ Intel Lake Crest Chip หรือ Block Diagram:

รายละเอียดผังของ Lake Crest block diagram ถูกเปิดเผยโดย Golem.de ซึ่งแจกแจงรายละเอียดได้มากกว่า. เราสามารถเห็น 8 GB HBM2 memory blocks ทั้งสี่ชุดนั้นแยกออกต่างหากจาก main die/ตัวหลัก แต่มันจะถูกต่อเชื่อมไว้ด้วยกันในชิปตัวเดียวด้วย interposer. ตัว chip ประกอบไปด้วย 12 processing clusters ซึ่งมีแกนด้วยกันหลายแกน. จำนวนที่แน่นอนนั้นยังไม่สามารถบอกได้. HBM2 memory แต่ละชุดมีตัวควบคุมหรือ HBM controller ของมันเอง ซึ่งทั้งหมดก็จะมี สี่ตัวด้วยกัน. และแต่ละ processing cluster จะมี 12 ICL (Inter-chip links) blocks. และยังมีตัวควบคุมหรือ CPU management controller, SPI, IC2, GIPO, PCIe controller (x16) และ DMA.

ตามโรดแมพของทาง Intel น่าจะประกาศและทดสอบในวันและเวลาเดียวกันในวันที่จะเปิดตัว w Knights Mill (Xeon Phi) และ Xeon E5 V5 Skylake รุ่นใหม่.

ที่มาเครดิต/Sources:

http://wccftech.com/intel-lake-crest-chip-detailed-32-gb-hbm2-1-tb/