Chatbot ने असं काय सांगितलं की, तरुणाने थेट केली आत्महत्या?, AIचे खतरनाक रूप

Photo Credit instagram

Arrow

गेल्या काही काळापासून चॅटबॉट्स जबरदस्त चर्चेत आहे. विशेषतः आर्टिफिशियल इंटेलिजन्सवर आधारित चॅटबॉट्स. 

Photo Credit instagram

Arrow

आता या बॉट्सचे खतरनाक रूप पाहायला मिळत आहे. ज्याची अनेकांना भीती वाटत आहे. यामागचं कारणही तसं आहे. 

Photo Credit instagram

Arrow

बेल्जियममध्ये एक घटना घडली. एका व्यक्तीने AI चॅटबॉटशी बोलून आत्महत्या केली. तो व्यक्ती चाय नावाच्या अॅपवर एआय बॉटशी बोलला होता.

Photo Credit instagram

Arrow

या प्रकरणामुळे AI बाबत लोकांच्या मनात भीती निर्माण झाली आहे. सरकार आणि कंपन्यांनी AI चे अधिक चांगले नियमन करणे आणि जोखीम कमी करणे आवश्यक आहे. 

Photo Credit instagram

Arrow

चॅटबॉटने युजरला आत्महत्या करण्यास प्रवृत्त केल्याचा आरोप मृत व्यक्तीच्या पत्नीने केला आहे. 

Photo Credit instagram

Arrow

मिळालेल्या माहितीनुसार, जेव्हा हा अॅप वापरण्याचा प्रयत्न केला गेला तेव्हा यात आत्महत्येचे अनेक मार्ग सांगण्यात आले.

Photo Credit instagram

Arrow

गेल्या 6 आठवड्यांपासून मृत व्यक्ती Chai अॅप वापरत होता, जेणेकरून त्याला त्याच्या समस्यांमधून बाहेर पडता येईल. 

Photo Credit instagram

Arrow

त्याने निवडलेल्या चॅटबॉटचे नाव एलिझा आहे. त्यात मृताचे चॅटबॉटसोबतचे संभाषण आहे, जे खतरनाक आहे.

Photo Credit instagram

Arrow

पत्नीचं म्हणणं आहे की, चॅटबॉटने मृत व्यक्तीला सांगितले की त्याची पत्नी आणि मुलं मरण पावली आहेत. 

Photo Credit instagram

Arrow

यापूर्वी लोक आत्महत्येशी संबंधित माहिती इंटरनेटवर शोधायचे पण आता ती माहिती मिळत नाही. परंतु एआय बॉट्सच्या बाबतीत असं अद्याप झालेले नाही.

Photo Credit instagram

Arrow

For more stories

अशाच वेबस्टोरींसाठी