ทุนวิจัยด้านความปลอดภัยของ OpenAI เปิดรับสมัคร: นักวิจัยภายนอกเข้าร่วมการวิจัยด้านความปลอดภัยของ AI กำหนดส่ง 3 พฤษภาคม

ChainNewsAbmedia

OpenAI ประกาศเปิดรับการสมัคร “OpenAI Safety Fellowship” ซึ่งเป็นโครงการนำร่องสำหรับนักวิจัยภายนอก โดยมีเป้าหมายเพื่อสนับสนุนการวิจัยด้านความปลอดภัยและการจัดแนวของ AI อย่างอิสระ และบ่มเพาะบุคลากรด้านความปลอดภัยของ AI รุ่นถัดไป

ระยะเวลาของโครงการและสถานที่

โครงการ Fellowship จะดำเนินการตั้งแต่วันที่ 14 กันยายน 2026 ถึงวันที่ 5 กุมภาพันธ์ 2027 เป็นเวลาประมาณห้าเดือน พื้นที่ทำงานหลักตั้งอยู่ที่ Constellation ในเมืองเบิร์กลีย์ รัฐแคลิฟอร์เนีย โดย Fellow อื่น ๆ ทำงานร่วมสถานที่เดียวกัน ผู้สมัครยังสามารถเลือกเข้าร่วมแบบระยะไกลได้

สาขาการวิจัยที่ให้ความสำคัญเป็นพิเศษ

OpenAI ระบุว่า โครงการจะให้การสนับสนุนเป็นลำดับแรกสำหรับคำถามการวิจัยที่เกี่ยวข้องโดยตรงกับความปลอดภัยของระบบที่มีอยู่และที่จะเกิดขึ้นในอนาคต ซึ่งรวมถึง:

การประเมินความปลอดภัย (safety evaluation)

จริยธรรม (ethics)

ความทนทาน (robustness)

มาตรการบรรเทาความเสี่ยงที่ปรับขยายได้ (scalable mitigations)

วิธีการด้านความปลอดภัยที่รักษาความเป็นส่วนตัว (privacy-preserving safety methods)

การกำกับดูแลระบบแบบตัวแทน (agentic oversight)

โดเมนการใช้งานในทางที่ผิดที่มีความรุนแรงสูง (high-severity misuse domains)

OpenAI เน้นเป็นพิเศษว่า หวังว่าการวิจัยของผู้ที่ได้รับคัดเลือกจะมีหลักฐานเชิงประจักษ์ (empirically grounded) มีความรอบคอบและเคร่งครัดทางเทคนิค และมีคุณค่าในการอ้างอิงต่อชุมชนวิจัยที่กว้างขึ้น

คุณสมบัติการสมัครและผลตอบแทน

โครงการเปิดรับผู้สมัครจากพื้นฐานที่หลากหลาย เช่น วิทยาการคอมพิวเตอร์ สังคมศาสตร์ ความมั่นคงทางสารสนเทศ ความเป็นส่วนตัว ปฏิสัมพันธ์ระหว่างมนุษย์และเครื่องจักร (HCI) เป็นต้น OpenAI ระบุอย่างชัดเจนว่า เกณฑ์การคัดเลือกให้ความสำคัญเป็นอันดับแรกกับความสามารถด้านการวิจัย ความสามารถในการตัดสินเชิงเทคนิค และความสามารถในการลงมือทำ ไม่ใช่คุณสมบัติด้านการศึกษาเฉพาะทาง

ผู้ได้รับคัดเลือกจะได้รับ:

เงินช่วยเหลือรายเดือน (monthly stipend)

การสนับสนุนด้านการประมวลผล (compute support)

การให้คำแนะนำจากพี่เลี้ยงภายในของ OpenAI อย่างต่อเนื่อง

คะแนน API และทรัพยากรอื่น ๆ ที่เหมาะสม

น่าสังเกตว่า Fellow จะไม่ได้รับสิทธิ์ในการเข้าถึงระบบภายในของ OpenAI ดังนั้นการวิจัยต้องดำเนินการด้วยวิธีอิสระจากภายนอก โครงการกำหนดให้ยื่นจดหมายรับรอง และคาดหวังว่า Fellow แต่ละคนจะต้องนำเสนอผลความสำเร็จด้านการวิจัยที่เป็นรูปธรรมก่อนสิ้นสุดโครงการ (เช่น บทความวิจัย เเบนช์มาร์ก หรือชุดข้อมูล)

กำหนดส่งใบสมัคร: 5 พฤษภาคม

การรับสมัครเปิดให้แล้ว และกำหนดส่งคือวันที่ 3 พฤษภาคม 2026 OpenAI คาดว่าจะประกาศผลการคัดเลือกก่อนวันที่ 25 กรกฎาคม 2026 สำหรับลิงก์การสมัครและรายละเอียดคุณสมบัติ โปรดดู แบบฟอร์มการสมัครอย่างเป็นทางการ; คำถามที่เกี่ยวข้องสามารถส่งอีเมลไปที่ openaifellows@constellation.org ได้

บทความนี้ OpenAI Safety Fellowship เปิดรับสมัคร: นักวิจัยภายนอกร่วมทำวิจัยด้านความปลอดภัยของ AI ปิดรับสมัคร 5 พฤษภาคม เป็นฉบับแรกที่ปรากฏใน ข่าว ABMedia

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น