Wikipedia ha incorporado un servicio que utiliza inteligencia artificial para descubrir las intervenciones tendenciosas o actos de sabotaje de contenidos. El servicio también tendrá la capacidad de evaluar la calidad general de todos y cada uno de los artículos publicados en Wikipedia.
Wikimedia escribe que el servicio ha sido denominado Objective Revision Evaluation Service (ORES), cuyo funcionamiento ilustra como dos gafas con visión de rayos X, que facilitará la detección de revisiones perniciosas en el enorme número de cambios que constantemente se hacen en la enciclopedia.
Los ingenieros de la entidad han incorporado al sistema la capacidad de evaluar artículos y la edición de los mismos, contrastándolos con políticas de control de calidad hechas por la comunidad de editores. Este conjunto de políticas y prácticas asigna un puntaje a los artículos y a las correspondientes revisiones, a lo que se suma un cálculo de probabilidades, que finalmente determina si se trata de una revisión tendenciosa.
El tiempo que toma cada revisión oscila entre los 10 y los 100 ms, dependiendo si el artículo ha sido anteriormente realizado o no.
La organización recalca que ya cuenta con herramientas adecuadas para control de calidad para los idiomas más hablados, pero que la situación no es igual de favorable para otras versiones. Inicialmente, ORES estará disponible en 14 ediciones de Wikipedia, entre las que se encuentra el español.
Otra área en la que trabaja la organización consiste de un modelo que automáticamente clasifica las revisiones, dependiendo de los cambios implementados. Como ejemplo de esto se mencionan las traducciones, diseño, mejoras de calidad, clasificación o incorporación de imágenes y audio.
Una tercera área es el desarrollo de estrategias de los modelos que permitan detectar opiniones sesgadas.
En el espíritu que ha inspirado a Wikipedia, ORES y todos sus demás métodos y componentes han sido distribuidos como código abierto. Más detalles sobre ORES en este artículo.