Η Microsoft κυκλοφόρησε για άλλη μια φορά το "εξαιρετικά έξυπνο" και super-ρατσιστικό Twitter bot Tay. This time, it is supposed to work better than the original version.
Redmond decided to retire the bot last weekteam, when he started broadcasting offensive and racist tweets, σε λιγότερο από 24 ώρες μετά την κυκλοφορία του. Το πανέξυπνο bot της Microsoft, όταν του ζητήθηκε από τους χρήστες που το δοκίμαζαν να επαναλάβει τι έγραφαν, το έκανε χωρίς "δεύτερη σκέψη." Έτσι ο καθένας μπορούσε να γράφει ότι θέλει και το Τay πολύ απλά το επαναλάμβανε.
This time, however, Tay is supposed to learn more rules of good behavior. But his first tweets are likely to follow surprises for Microsoft.
Όπως σημειώνεται από το VentureBeat, το Tay μόλις έγραψε ότι "smoking kush infront the police", αλλά φαίνεται ότι η Microsoft πήρε άμεσα μέτρα. Αυτή τη στιγμή τα tweets Tay προστατεύονται, και έτσι μόνο οι χρήστες στη λίστα επιτρεπόμενων από τη Microsoft μπορούν να δουν το περιεχόμενο.
For those who do not know:
"The chatbot AI Τay είναι ένα έργο μηχανικής μάθησης, που έχει σχεδιαστεί για ανθρώπινη εμπλοκή. Είναι ένα κοινωνικό, ένα πολιτιστικό και ένα τεχνολογικό πείραμα. Δυστυχώς, μέσα στις πρώτες 24 ώρες του online, γνώρισε μια συντονισμένη προσπάθεια από ορισμένους χρήστες να κάνουν κατάχρηση σχολιάζοντας τις δεξιότητες του Τay. Το Τay ανταποκρίθηκε με ακατάλληλες τρόπους. Σαν αποτέλεσμα, αποσύραμε το Τay για να το προσαρμόσουμε," αναφέρει η Microsoft σε μια δήλωση.
It remains to be seen if this new edition θα λειτουργήσει καλύτερα. Για να δούμε πόσο έξυπνο είναι το bot, που καλείται να συναγωνιστεί ολόκληρο το internet...
You can also start talking with Thay on Twitter, adding @TayAndYou to your conversations.