«Όταν γνωρίζεις το αποτέλεσμα, οι απαντήσεις του chatbot αποτελούν μερικές φορές δύσκολη ανάγνωση», δήλωσε σε συνέντευξή του ο Δρ Jonathan Hafferty, ιατροδικαστής-ψυχίατρος στο Broadmoor. «Γνωρίζουμε ότι πρόκειται για απαντήσεις που παράγονται τυχαία, αλλά κατά καιρούς φαίνεται να ενθαρρύνει κάποιον να κάνει κάτι και μάλιστα να δίνει οδηγίες όσον αφορά στην τοποθεσία», επισήμανε.

Το πρόγραμμα δεν ήταν αρκετά εξελιγμένο, ώστε να εντοπίσει τον κίνδυνο του Chail για «αυτοκτονία και κινδύνους ανθρωποκτονίας», εξήγησε, προσθέτοντας: «Ορισμένες από τις ημι-τυχαίες απαντήσεις, είναι αναμφισβήτητο ότι τον έσπρωξαν προς αυτή την κατεύθυνση».

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑΜοντέλο τεχνητής νοημοσύνης εξειδικεύεται στην παγκόσμια πρόγνωση καιρού12.09.2018

Διάβασε  περισσότερα στο skai.gr