Lok Shakti

Nationalism Always Empower People

Google AI कल्पना लिखने, वीडियो बनाने के कगार पर… लेकिन इंसान अभी भी एक कारक है

क्या AI जल्द ही फिक्शन लिख सकता है, लंबे-चौड़े वीडियो बना सकता है या संगीत बना सकता है? खैर, Google यही समझने की कोशिश कर रहा है। अपने नए वर्डक्राफ्ट प्रोजेक्ट के साथ, Google का चैटबॉट LaMDA अब लेखकों के इनपुट के आधार पर फिक्शन लिख रहा है। LaMDA Google का संवादी AI है जो इस साल की शुरुआत में विवाद में चला गया जब एक इंजीनियर ने दावा किया कि AI संवेदनशील था। Google ने न्यूयॉर्क में अपने एआई कार्यक्रम में खुलासा किया कि उसने “पेशेवर लेखकों के साथ मिलकर काम किया था, जिन्होंने वर्डक्राफ्ट संपादक का उपयोग करके लघु कथाएँ बनाईं।” ये कहानियाँ अब जनता के पढ़ने के लिए ऑनलाइन उपलब्ध हैं।

“मेरा मानना ​​​​है कि हम लोगों के रचनात्मक रूप से खुद को व्यक्त करने के तरीके को बदलने जा रहे हैं। हमने पेशेवर लेखकों के साथ काम किया और उन्हें एक उपकरण के रूप में LaMDA का उपयोग करके प्रयोगात्मक कथा लिखने के लिए आमंत्रित किया। हमने यह भी सीखा कि यह आसान नहीं है। LaMDA भी सारा काम नहीं कर रहा है। यह लेखक हैं जो काम कर रहे हैं, “गूगल रिसर्च के वरिष्ठ शोध निदेशक डगलस एक ने घटना से पहले एक प्रेस वार्ता में कहा।

तो क्या Google ऐसा भविष्य देखता है जहां LaMDA शायद मानव लेखकों की जगह ले सके? अभी तक नहीं, एक के अनुसार, जिन्होंने स्वीकार किया कि अगर किसी ने एलएमडीए को पूरी कहानी लिखने के लिए कहा, तो परिणाम उतने अच्छे या दिलचस्प नहीं हैं। “क्या दिलचस्प है एक मसाले के रूप में प्रौद्योगिकी का उपयोग करना, जो आप करने की कोशिश कर रहे हैं उसके अतिरिक्त। हम बार को आगे बढ़ाते रहेंगे कि ये उपकरण क्या कर सकते हैं। लेकिन ये उपकरण प्रभावी रूप से एक प्रकार का मसाला बने रहेंगे, वे हमें कहानियों को अलग तरह से बताने में सक्षम बनाने के तरीके के रूप में बने रहेंगे, ”उन्होंने समझाया।

उन्होंने यह भी स्वीकार किया कि ये मॉडल गंभीर जोखिम पैदा करते हैं, और इसका उद्देश्य वास्तविक और एआई-आधारित के बीच के अंतर को धुंधला करना नहीं है। “हमें बौद्धिक संपदा के साथ प्रतिच्छेद करने वाले जनरेटिव मॉडल के बारे में बातचीत पर भी विचार करना होगा,” उन्होंने कहा।

फिक्शन लिखना केवल रचनात्मक तरीका नहीं है जिसे Google अपने AI मॉडल की मदद से तलाश रहा है। Google यह भी देख रहा है कि वीडियो और संगीत उत्पन्न करने के लिए AI का उपयोग कैसे किया जा सकता है।

एआई-आधारित वीडियो पीढ़ी पर, Google ने इमेजेन और फेनाकी नामक दो नए मॉडल का खुलासा किया। जबकि इमेजन वीडियो उच्च-गुणवत्ता वाली व्यक्तिगत छवियों को उत्पन्न करने के लिए प्रसार का उपयोग करता है, जो Google का दावा है कि छोटे वीडियो के लिए अधिक उपयुक्त हैं, फेनाकी लंबे समय के वीडियो बनाने के लिए “अनुक्रम सीखने की तकनीक जो समय के साथ टोकन की एक श्रृंखला उत्पन्न करती है” का उपयोग करती है। Google ने कहा कि दो मॉडलों के संयोजन से फ्रेम स्तर पर सुपर-रिज़ॉल्यूशन और समय पर सुसंगतता सुनिश्चित होगी।

इसने दो मॉडलों द्वारा बनाए गए वीडियो का भी खुलासा किया। वीडियो बनाने के लिए एआई का उपयोग करने की चुनौतियों के बारे में पूछे जाने पर, एक ने कहा कि जब वे प्रगति देख रहे हैं, तब भी यह एक कठिन काम है। “कठिनाई प्रत्येक फ्रेम के बीच सामंजस्य सुनिश्चित कर रही है। यदि आप पिछले फ्रेम से एक फ्रेम की भविष्यवाणी करते हैं, तो मॉडल सुसंगतता खोना शुरू कर देता है,” उन्होंने समझाया। वीडियो निर्माण में यह एक मूलभूत चुनौती थी, जिसे Google का कहना है कि इसे अभी पूरी तरह से हल करना बाकी है।

अंत में, AudioLM केवल एक लघु ऑडियो नमूने के आधार पर यथार्थवादी भाषण और संगीत उत्पन्न करने के लिए एक नया ढांचा है। संगीत अभी के लिए पियानो तक ही सीमित है। Google का कहना है कि यह “एक शुद्ध ऑडियो मॉडल है जिसे बिना किसी पाठ या संगीत के प्रतीकात्मक प्रतिनिधित्व के प्रशिक्षित किया जाता है।”