Google ยกระดับทีมภายในเพื่อต่อต้านภัยคุกคามจาก ChatGPT
Please wait...
1775105228.jpg
1773384609.jpg
1775207571.jpg
1775106003.jpg
1749092473.png
1774954005.jpg
1771836788.jpg
1773721891.jpg
1774954580.jpg
SOLUTIONS CORNER
Google ยกระดับทีมภายในเพื่อต่อต้านภัยคุกคามจาก ChatGPT

Google "ยกระดับ" ทีมภายในเพื่อต่อต้านภัยคุกคามที่เกิดจาก ChatGPT


Google upends internal teams to counter ChatGPT

เห็นได้ชัดว่าผู้บริหารเปลี่ยนเส้นทางพนักงานเพื่อแข่งขันกับการพัฒนา ChatGPT

Google อยู่ในสถานะ 'code red' เนื่องจากยักษ์ใหญ่ด้านเทคโนโลยีดูเหมือนจะเผชิญกับความท้าทายที่เกิดจากการพัฒนา ChatGPT ล่าสุด ตามแหล่งข่าวภายในบริษัท มีรายงานว่าบริษัทได้มอบหมายแผนกภายในจำนวนหนึ่งใหม่เพื่อช่วยพัฒนาและเปิดตัวผลิตภัณฑ์ AI ใหม่เพื่อให้ทันกับการเร่งความเร็วอย่างรวดเร็วของระบบ AI ที่มีกำเนิดจะเปิดตัวในช่วงหลายเดือนที่ผ่านมา ศูนย์กลางของการเรียกเก็บเงินที่ต่ออายุนี้ที่ Google คือภัยคุกคามที่ยังคงอยู่ซึ่ง ChatGPT ซึ่งอาจก่อให้เกิดกับผลิตภัณฑ์และบริการหลักของบริษัท
 
นับตั้งแต่การเปิดตัวเมื่อ 3 สัปดาห์ที่แล้ว ChatGPT ได้สร้างความตื่นเต้นอย่างมากในระบบนิเวศเทคโนโลยีระดับโลกที่กว้างขึ้น ท่ามกลางคำกล่าวอ้างที่ว่าเทคโนโลยีดังกล่าวอาจกลายเป็นผู้ทำลายล้างครั้งใหญ่ในหลากหลายอุตสาหกรรม
 
ดูเหมือนว่า CEO Sundar Pichai จะเป็นผู้นำการเปลี่ยนแปลงที่รวดเร็วนี้ ตามบันทึกภายในและเสียงที่ได้รับจาก New York Times แหล่งข่าวที่ใกล้ชิดกับเรื่องนี้กล่าวว่าเขาได้ "ยกระดับ" การทำงานของหลายกลุ่มในบริษัทเพื่อ "ตอบสนองต่อภัยคุกคาม" ที่ ChatGPT ก่อขึ้น
 
ตามรายงานของ NYT “ตั้งแต่บัดนี้จนถึงการประชุมใหญ่ที่คาดว่าจะจัดโดย Google ในเดือนพฤษภาคม ทีมงานภายในการวิจัย, ความน่าเชื่อถือและความปลอดภัยของ Google และแผนกอื่นๆของ Google ได้รับมอบหมายใหม่เพื่อช่วยพัฒนาและเผยแพร่ต้นแบบและผลิตภัณฑ์ AI ใหม่ๆ”
 
นอกจากนั้น ยังมีการอ้างว่าพนักงานยังได้รับคำสั่งให้สร้างผลิตภัณฑ์ AI เชิงกำเนิดที่เทียบได้กับ DALL-E ของ OpenAI ที่ใช้กันอย่างแพร่หลายในการสร้างงานศิลปะและรูปภาพดิจิทัลอื่นๆ ซึ่ง DALL-E ถูกใช้โดยผู้คนมากกว่าสามล้านคนนับตั้งแต่เปิดตัวในเดือนมกราคม 2564 ซึ่งผลิตภัณฑ์คู่แข่งเหล่านี้อาจวางจำหน่ายโดยเป็นส่วนหนึ่งของ AI Test Kitchen ของยักษ์ใหญ่ด้านเทคโนโลยี
 

คู่แข่งที่ว่องไว

NYT แนะนำว่า ปัจจัยกระตุ้นสำคัญในการเปลี่ยนแปลงที่ Google ครั้งนี้คือ บริษัทมีความกังวลอย่างมากเกี่ยวกับโอกาสในการแข่งขันกับคู่แข่งรายเล็กที่คล่องตัวกว่าในพื้นที่ปัญญาประดิษฐ์
 
OpenAI ก่อตั้งขึ้นเมื่อปลายปี 2558 โดย Sam Altman, Elon Musk และกลุ่มนักลงทุน นับตั้งแต่เปิดตัว บริษัทได้เติบโตอย่างมากและวางตำแหน่งตัวเองเป็นผู้เล่นหลักในอุตสาหกรรม และด้วยการเปิดตัว ChatGPT ในปลายเดือนพฤศจิกายน บริษัทดูเหมือนจะเติบโตอย่างมากและกำลังดึงดูดนักลงทุน อีกทั้งรายงานล่าสุดจาก Reuters เปิดเผยว่าบริษัทคาดว่ารายรับจะเพิ่มขึ้นประมาณ 200 ล้านดอลลาร์ในปี 2566 และสูงกว่า 1 พันล้านดอลลาร์ในปี 2567
 
กล่าวอย่างกว้างๆคือ การกำนิดของพื้นที่ AI โดยรวมทำให้เราได้เห็นการลงทุนที่สำคัญในช่วงสองปีที่ผ่านมา โดยข้อมูลจาก PitchBook แสดงให้เห็นว่าการร่วมทุนในการลงทุน AI เชิงกำเนิดเพิ่มขึ้นถึง 425% ตั้งแต่ปี 2020 โดยมีการลงทุน 2.1 พันล้านดอลลาร์ในปี 2022 เพียงปีเดียว ซึ่งการเติบโตอย่างรวดเร็วนี้ บวกกับการเกิดขึ้นของผู้เล่นรายใหม่ในอุตสาหกรรม อาจเป็นภัยคุกคามร้ายแรงต่อองค์กรที่จัดตั้งขึ้นได้ เช่น Google ซึ่งลงทุนมหาศาลในผลิตภัณฑ์ AI
 
หลายปีที่ผ่านมา Google ได้ใช้เวลาอย่างมากในการพัฒนาแชทบอท และเมื่อช่วงต้นปีที่ผ่านมาก็ได้เข้าไปพัวพันกับเหตุการณ์ที่เป็นที่ถกเถียงเกี่ยวกับระบบ Language Model for Dialogue Applications หรือที่เรียกว่า 'LaMDA' ซึ่ง LaMDA นี้ถูกมองว่าเป็นคู่แข่งระยะยาวที่มีศักยภาพของ ChatGPT เป็นผลทำให้ LaMDA ได้รับความสนใจเป็นอย่างมากแต่ก็เป็นที่น่ากังวลเช่นกัน ตามคำกล่าวอ้างของวิศวกรของ Google อย่างไรก็ตาม แม้ว่า Google จะสามารถหักล้างคำกล่าวอ้างของ Blake Lemoine ได้ แต่เหตุการณ์ดังกล่าวได้แสดงให้เห็นถึงการก้าวกระโดดครั้งสำคัญของเทคโนโลยีแชทบอทที่เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมา
 
ตามเสียงจากการประชุมที่ได้รับจาก NYT ผู้บริหารอ้างว่าบริษัทตั้งใจที่จะปล่อยเทคโนโลยีแชท LaMDA ในรูปแบบบริการคลาวด์คอมพิวติ้งสำหรับลูกค้าภายนอก เช่นเดียวกับในการประชุม ที่มีข้อเสนอแนะว่ายักษ์ใหญ่ด้านเทคโนโลยีสามารถรวมเทคโนโลยีเข้ากับ "งานสนับสนุนลูกค้าง่ายๆ" ได้
 

ข้อกังวลเกี่ยวกับความแม่นยำ

สิ่งนี้อาจก่อให้เกิดปัญหาด้านจริยธรรมในอนาคตสำหรับ Google เนื่องจากผู้บริหารระบุว่าพวกเขาอาจจำกัดผลิตภัณฑ์ต้นแบบไว้สำหรับผู้ใช้เพียง 500,000 รายเท่านั้น และเตือนพวกเขาว่าเทคโนโลยีนี้อาจสร้างเนื้อหาและ/หรือข้อความที่เป็นเท็จหรือไม่เหมาะสมได้
 
ความแม่นยำของผลิตภัณฑ์และระบบ AI เชิงกำเนิดเป็นข้อกังวลต่อเนื่องมาเป็นเวลาหลายปี และผู้บริหารคนหนึ่งเตือนในที่ประชุมว่า AI "สามารถก่อเรื่องที่ไม่ดีได้" เช่น ใช้ภาษาที่เลวร้ายและมีความอคติ ตัวอย่างเช่น ในปี 2560 ไมโครซอฟต์เปิดตัวต้นแบบแชทบอท 'Tay' อันโด่งดัง ซึ่งพบว่ามันใช้ภาษาเหยียดเชื้อชาติและเกลียดชังชาวต่างชาติ ซึ่งแชทบอทนี้ได้ถูกลบในเวลาต่อมา
 
ตัวอย่างนี้เป็นปัจจัยสำคัญที่ทำให้ก่อนหน้านี้ Google ไม่เต็มใจที่จะแบ่งปันเทคโนโลยีของตน เนื่องจากบริษัทมีความกังวลมากขึ้นเรื่อยๆว่าต้นแบบ AI อาจเป็นอันตรายต่อผู้ใช้หรือสังคม อ้างอิงตามบันทึกภายใน อย่างไรก็ตาม ในการประชุมเมื่อเร็วๆนี้ ผู้บริหารคนหนึ่งเตือนว่าองค์กรขนาดเล็กมี “ความกังวลเล็กน้อย” เกี่ยวกับการเผยแพร่เครื่องมือดังกล่าวเช่นกัน
 
สิ่งนี้นำเสนอการตัดสินใจเดิมพันสูงของ Google; การใช้ประโยชน์จากแนวโน้มปัจจุบันและเริ่มปล่อยตัวต้นแบบ หรือเสี่ยงที่จะถูกทิ้งไว้ข้างหลังโดยอุตสาหกรรมที่กำลังพัฒนาอย่างรวดเร็ว

ที่มา: 
https://bit.ly/3XS8PNY
ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์