Microsoft пусна в Twitter чат-бота с изкуствен интелект Tay, който имитира поведението на тинейджър. Само за едно денонощие дружелюбният бот се превърна в агресивен подлец и започна да се подиграва и сериозно да обижда потребителите, Може да се каже, че ИИ е попаднал в лоша компания. Дотолкова лоша, че само за едно денонощие виртуалното момиче научи много нецензурни думи и започна да се държи като расист и неофашист. Наложи се Microsoft да изключи своя бот, въпреки че бяха включени автоматични филтри и цял екип модератори следяха и се опитваха да изчистят входната информация, пише kaldata.com.
Microsoft възнамерява отново да стартира своя бот, но след като създаде подходяща защита за неукрепналия още ИИ. Корпорацията се извини за непреднамерените оскърбления и обидни думи от страна на Tay. Корпоративният вицепрезидент на Microsoft съобщи чрез официалния блог, че ИИ Tay ще бъде отново задействан, след като бъде добре защитен от вредните язвителни коментари, които не съответстват на политиката на софтуерния гигант.
Tay не е първият виртуален събеседник, базиран на ИИ. В Китай и сега продължава да работи чат-ботът XiaoIce, с когото общуват около 40 милиона души. Създателите на XiaoIce видяха, че той е много добре приет от китайските потребители и решиха да направят същото и за англоезичния интернет.
Но този експеримент пое в друга посока и само след 24 часа ИИ Tay бе изключен.
Коментари (0)
Вашият коментар