Λογισμικό «εκπαιδευμένο» να αντιλαμβάνεται τη διαφορά μεταξύ ενός απλού λάθους και σκόπιμου βανδαλισμού αναπτύσσει το Wikimedia Foundation – η μη κερδοσκοπική οργάνωση που βρίσκεται πίσω από τη Wikipedia- σε μια προσπάθεια να καταστήσει ευκολότερο/ ομαλότερο το editing της εγκυκλοπαίδειας.
Όπως αναφέρεται σε σχετικό δημοσίευμα του MIT Technology Review, ένας από τους βασικούς λόγους πίσω από το εν λόγω project είναι η σημαντική μείωση αυτών που συνεισφέρουν στο editing και την ανάπτυξη της αγγλικής έκδοσης της Wikipedia: Μέσα στα τελευταία οκτώ χρόνια έχει μειωθεί κατά 40%, στους 30.000. Έρευνες έχουν δείξει ότι αυτό οφείλεται στην πολύπλοκη «γραφειοκρατία» της Wikipedia και τη συχνά σκληρή στάση απέναντι σε λάθη νεοφερμένων, που σε έναν βαθμό οφείλεται σε ημιαυτόματα εργαλεία τα οποία κάνουν εύκολη τη διαγραφή νέων αλλαγών.
Ο Άαρον Χάλφακερ, ερευνητής του ιδρύματος και ένας από αυτούς που αντιλήφθηκαν σε πρώτη φάση το πρόβλημα, δουλεύει πάνω στην αντιμετώπισή του, με «έξυπνους» αλγορίθμους που είναι σε θέση να κατανοούν τα ανθρώπινα μειονεκτήματα. Πρόκειται για το σύστημα ORES (Objective Revision Evaluation Service), που μπορεί να «εκπαιδευτεί» έτσι ώστε να αξιολογεί την ποιότητα των νέων edits όσον αφορά στο εάν έχουν γίνει με καλή πίστη ή όχι.
Ο Χάλφακερ δημιούργησε το ORES προσβλέποντας στη βελτίωση εργαλείων τα οποία βοηθούν τους editors της Wikipedia δείχνοντας πρόσφατα edits και κάνοντας εύκολο το «undo» με ένα κλικ. Τα εργαλεία αυτά δημιουργήθηκαν για τη βελτίωση του ελέγχου ποιότητας αφού η Wikipedia έγινε δημοφιλής, ωστόσο αυτό είχε ως συνέπεια οι νέοι editors να βλέπουν τις παρεμβάσεις/ συνεισφορές τους να διαγράφονται χωρίς εξήγηση, επειδή άθελά τους παρέβησαν κάποιον κανόνα από τους πολλούς της Wikipedia.
Το ORES επιτρέπει στα editing tools να οδηγούν τους χρήστες στο να εξετάζουν τις πιο επιζήμιες αλλαγές. Το λογισμικό μπορεί επίσης να βοηθά τους editors να αντιμετωπίζουν λάθη που προκύπτουν από απειρία ή είναι απλά αθώα με καλύτερο τρόπο, κατά τον Χάλφακερ. «Υποψιάζομαι ότι η επιθετική συμπεριφορά των Wikipedians που κάνουν τον έλεγχο ποιότητας οφείλεται στο ότι προβαίνουν σε κρίσεις πολύ γρήγορα, και δεν ενθαρρύνονται να έχουν μια ανθρώπινη επαφή με το άτομο…αυτό επιτρέπει σε ένα εργαλείο να πει “αν πρόκειται να το πάρεις πίσω αυτό, ίσως θα έπρεπε να είσαι προσεκτικός και να στείλεις σε αυτόν που έκανε το edit ένα μήνυμα”».
Ο ίδιος πιστεύει πως τα νέα αυτά εργαλεία θα γίνουν αποδεκτά, επειδή είναι πιο εξελιγμένα σε σχέση με άλλο λογισμικό που είχε διατεθεί παλαιότερα, και επειδή η χρήση τους δεν επιβάλλεται. «Με κάποιους τρόπους είναι περίεργο να εισάγουμε Τεχνητή Νοημοσύνη και machine learning σε ένα γιγαντιαίο κοινωνικό πράγμα, αλλά δεν νομίζω ότι αυτό που κάνουμε διαφέρει από άλλες αλλαγές λογισμικού στο site» σημειώνει.