Η Microsoft κυκλοφόρησε για άλλη μια φορά το “εξαιρετικά έξυπνο” και Great-ρατσιστικό Twitter bot Tay. Αυτή τη φορά, υποτίθεται ότι λειτουργεί better από την αρχική version.
Το Redmond αποφάσισε να αποσύρει το bot την περασμένη εβδομάδα, όταν άρχισε να μεταδίδει προσβλητικά και ρατσιστικά tweets, σε λιγότερο από 24 ώρες μετά την κυκλοφορία του. Το πανέξυπνο bot της Microsoft, όταν του ζητήθηκε από τους users who were testing it to repeat what they wrote, it did so without a "second thought." So anyone could write whatever they wanted and Tay simply repeated it.
This time, however, Tay is supposed to learn more rules of good behavior. But his first tweets are likely to follow surprises for Microsoft.
Όπως σημειώνεται από το VentureBeat, το Tay μόλις έγραψε ότι “smoking kush infront the police”, αλλά φαίνεται ότι η Microsoft πήρε άμεσα μέτρα. Αυτή τη στιγμή τα tweets Tay προστατεύονται, και έτσι μόνο οι χρήστες στη λίστα επιτρεπόμενων από τη Microsoft μπορούν να δουν το content.
For those who do not know:
“Το chatbot AI Τay είναι ένα έργο engineeringς μάθησης, που έχει σχεδιαστεί για ανθρώπινη εμπλοκή. Είναι ένα κοινωνικό, ένα πολιτιστικό και ένα τεχνολογικό πείραμα. Δυστυχώς, μέσα στις πρώτες 24 ώρες του online, experienced a concerted effort by some users to abuse commenting on Tay's skills. Tay responded in inappropriate ways. As a result, we retired Tay to adapt it,” Microsoft said in a statement.
It remains to be seen if this new version will work better. To see how smart the bot is, it has to compete with the whole internet…
You can also start talking with Thay on Twitter, adding @TayAndYou to your conversations.
