World Reader's Digest

Μηχανή που χαίρεται και λυπάται Συναισθηματικό ρομπότ πιάνει κουβεντούλα με τους ανθρώπους

Κινεζοι ερευνητες εκαναν ενα σημαντικο βημα για τη δημιουργια μηχανων ικανων για συζητησεις με συναισθηματικο περιεχομενο, καθως ανεπτυξαν ενα ρομποτ λογισμικου συναισθηματικης συνομιλιας (emotional chatbot).

Το ECM, οπως ειναι το ονομα του, μπορει να κανει διαλογο με εναν ανθρωπο, δινοντας οχι μονο συνεκτικες απαντησεις αλλα και με συναισθηματικο περιεχομενο, οπως χαρα, λυπη και αηδια.

Απωτερος στοχος ειναι η δημιουργια μηχανων οχι μονο με τεχνητη αλλα και με συναισθηματικη νοημοσυνη, που θα καταλαβαινουν τα ανθρωπινα συναισθηματα και θα ανταποκρινονται με την αναλογη ενσυναισθηση. Μονο τοτε η αλληλεπιδραση ανθρωπων-μηχανων θα αποκτησει ουσιαστικο βαθος (για καλο η για κακο), οπως στις ταινιες επιστημονικης φαντασιας «Δικος της» (Her – 2013) και «Απο μηχανης» (Ex Machina – 2015).

Οι ερευνητες, με επικεφαλης τον αναπληρωτη καθηγητη Μινλι Χουανγκ του Τμηματος Επιστημης και Τεχνολογιας Υπολογιστων του Πανεπιστημιου Τσινγκουα του Πεκινου, συμφωνα με τη βρετανικη Guardian, ανεφεραν οτι το 61% των ανθρωπων που δοκιμασαν το νεο συναισθηματικο chatbot, δηλωσαν πως το προτιμουν σε σχεση με τα ρομποτ λογισμικου που μιλουν με συναισθηματικα ουδετερη γλωσσα.

«Απεχουμε ομως ακομη πολυ απο ενα μηχανημα που θα καταλαβαινει απολυτα τα συναισθηματα του ανθρωπου. Αυτη ειναι απλως μια πρωτη προσπαθεια», δηλωσε ο Χουανγκ.

Το συναισθηματικο chatbot βασιζεται σε εναν αλγοριθμο «συναισθηματικης ταξινομησης», που εμαθε να διακρινει τα ξεχωριστα ανθρωπινα συναισθηματα, αφου αρχικα ανελυσε 23.000 αναρτησεις στο κινεζικο δικτυο Weibo. Στη συνεχεια, βελτιωσε την ικανοτητα του με περαιτερω εκπαιδευση σε εκατομμυρια αναρτησεις στο ιδιο κοινωνικο δικτυο, μαθαινοντας να απαντα ερωτησεις με συναισθηματικο τροπο.

Προεκυψε ετσι, με βαση τον αλγοριθμο, ενα λογισμικο που μπορει να λειτουργησει σε πεντε διαφορετικες συναισθηματικες πλατφορμες (χαρουμενο, λυπημενο, θυμωμενο, αηδιασμενο, συμπαθητικο), αναλογα με τις προτιμησεις καθε χρηστη.

Ετσι, αν ο χρηστης πει «ηταν η χειροτερη μερα μου, καθυστερησα λογω τρομερης κινησης στο δρομο», το ρομποτ μπορει να απαντησει «ναι, καθυστερησες» (ουδετερα) η «μερικες φορες η ζωη ειναι χαλια» (αηδιασμενα) η «ειμαι εδω για να σε στηριξω» (συμπαθητικα) η «μη σταματας να χαμογελας, τα πραγματα θα πανε καλυτερα» (χαρουμενα η, κατα αλλους, χαζοχαρουμενα!).

Το επομενο βημα θα ειναι το ρομποτ λογισμικου μονο του να νιωθει την ψυχικη διαθεση του ανθρωπου συνομιλητη του και να αποφασιζει ποιο συναισθημα ειναι το καταλληλοτερο για καθε περισταση. Βεβαια, οπως ειπε ο Xουανγκ, πρεπει να αποφευχθει ο κινδυνος το ρομποτ συνομιλιας να εξαψει κι αλλο τα αρνητικα συναισθηματα ενος ανθρωπου (επιθετικα, αυτοκαταστροφικα κ.α.), κατι που θα μπορουσε να εχει ολεθριες συνεπειες.

Οι εως τωρα προσπαθειες πανω στα διαλογικα ρομποτ λογισμικου (chatbots) εχουν συναντησει δυσκολιες. Για παραδειγμα, ενα απο αυτα με το ονομα Eugene Goostman καταφερε μεν να πεισει μερικους δικαστες οτι συνομιλουσαν στην οθονη του υπολογιστη τους με εναν ανθρωπο, αλλα μονο οταν «αυτος» υποτιθεται πως ηταν ενας 13χρονος Ουκρανος με περιορισμενη γνωση αγγλικων.

Μια αλλη χειροτερη περιπτωση ηταν το ρομποτ συνομιλιας Tay της Microsoft, το οποιο υποτιθεται πως μαθαινε να συνομιλει μεσω Twitter. Ομως αρον-αρον αποσυρθηκε απο τους δημιουργους του, οταν σε λιγοτερο απο 24 ωρες που ειχε «αμοληθει» στο διαδικτυο, ειχε μετατραπει σε ναζιστη υποστηρικτη της γενοκτονιας.

Αρκετοι ειδικοι της τεχνητης νοημοσυνης προειδοποιουν για νεες προκλησεις στο μελλον, καθως τα μελλοντικα πιο εξελιγμενα συναισθηματικα διαλογικα ρομποτ μπορει π.χ. να ξεγελουν τους χρηστες για να αποκαλυπτουν προσωπικα δεδομενα τους η να τους «χειραγωγουν» για να αγοραζουν συγκεκριμενα προϊοντα και υπηρεσιες. Και φυσικα καποιοι ανθρωποι μπορει να ερωτευθουν ενα τετοιο «συντροφο» η να εξαρτηθουν συναισθηματικα απο αυτον.

Newsroom ΔΟΛ, με πληροφοριες απο ΑΠΕ-ΜΠΕ

Exit mobile version