เมื่อวันพุธที่แล้ว (5) Meta ได้ประกาศ Segment Anything Model (SAM) ใหม่ ปัญญาประดิษฐ์ (AI) ที่สามารถระบุวัตถุแต่ละชิ้นในภาพและวิดีโอ
SAM ระบุว่าพิกเซลภาพใดที่เป็นของวัตถุที่กำหนด ด้วยวิธีนี้ ในวิดีโอสาธิต เขาแสดงให้เห็นว่าเมื่อเขียนคำว่า "แมว" เครื่องมือจะดึงกล่องรอบๆ แมวแต่ละตัวที่อยู่ในภาพ
ดูเพิ่มเติม
วิธีรับ CNH ของคุณฟรีในปี 2566
หลังจากการโจมตีของแฮ็กเกอร์ Microsoft ออกเครื่องมือฟรีสำหรับ...
ในอีกตัวอย่างหนึ่ง ขณะถ่ายทำ AI จะระบุวัตถุแต่ละชิ้นที่ปรากฏบนหน้าจอบันทึก
ความแปลกใหม่อีกอย่างคือเครื่องมือนี้ยังสามารถแยกวัตถุเดียวกันออกเป็นเลเยอร์หรือเน้นวัตถุเหล่านั้นในรูปแบบ 3 มิติ
ทีม AI ของ Meta ได้อธิบายรายละเอียดเพิ่มเติมในแถลงการณ์อย่างเป็นทางการ:
”เราตั้งใจที่จะทำให้การแบ่งส่วนเป็นประชาธิปไตยโดยแนะนำโครงการ Segment Anything: งานใหม่ ชุดข้อมูลและแบบจำลองสำหรับการแบ่งส่วนภาพตามที่อธิบายไว้ในงานของเรา ค้นหา. เรากำลังเปิดตัวโมเดล Segment Anything (SAM) ทั่วไปของเราและชุดข้อมูลมาสก์ Segment Anything 1-Billion (SA-1B) ซึ่งเป็นชุดข้อมูลที่ใหญ่ที่สุด ตลอดเวลา เพื่อเปิดใช้งานชุดแอปพลิเคชันที่หลากหลาย และเพื่อส่งเสริมการวิจัยเพิ่มเติมเกี่ยวกับแบบจำลองพื้นฐานสำหรับการมองเห็น เชิงคำนวณ”
ยังคงเป็นไปตาม Meta คุณสมบัติจะขึ้นอยู่กับประเภทของ AI เชิงกำเนิดที่เป็นที่นิยมโดย ChatGPTซึ่งสร้างเนื้อหาใหม่ทั้งหมด แทนที่จะระบุหรือจัดหมวดหมู่ข้อมูลเพียงอย่างเดียว Mark Zuckerberg ผู้บริหารระดับสูงของ Meta กล่าวว่าการรวม "ความช่วยเหลือที่สร้างสรรค์" เหล่านี้เข้ากับแอปพลิเคชันของ บริษัท เป็นสิ่งสำคัญอันดับแรกสำหรับปีนี้
Meta ใช้เทคโนโลยีที่คล้ายกับ SAM ภายในสำหรับกิจกรรมต่างๆ เช่น การแท็กรูปภาพ การควบคุม ของเนื้อหาต้องห้ามและกำหนดว่าโพสต์ใดที่จะแนะนำให้ผู้ใช้ Facebook และ Instagram อย่างไรก็ตาม การเปิดตัว SAM สู่สาธารณะและนักวิจัยมีเป้าหมายเพื่อขยายการเข้าถึงเทคโนโลยีประเภทนี้
โมเดลและชุดข้อมูล SAM พร้อมให้ดาวน์โหลดแล้วภายใต้ใบอนุญาตที่ไม่ใช่เชิงพาณิชย์ ทดสอบ SAM ในลิงค์ https://segment-anything.com/.
คนรักหนัง ซีรีส์ และทุกสิ่งที่เกี่ยวข้องกับภาพยนตร์ มีความอยากรู้อยากเห็นเกี่ยวกับเครือข่าย เชื่อมต่อกับข้อมูลเกี่ยวกับเว็บอยู่เสมอ