¿Por qué Siri no puede encontrar clínicas del aborto y cómo no es una conspiración de Apple

A+ A-

“Estoy de pie delante de una Planificación de la Familia”, el reportero de la CNN dice, “y Siri no lo encuentra cuando la búsqueda de clínica de aborto.” No, no puede. No es porque Apple es pro-vida. Es porque Planificación de la Familia no llama a sí misma una clínica de aborto.

Bienvenido a Buscar Escándalos, Apple

Ha sido interesante ver el escándalo Siri Abortiongate golpe en la cara de Apple en los últimos días. Apple está aprendiendo por primera vez lo que se siente al correr un motor de búsqueda. Las personas tienen que rendir cuentas por todo, incluso si la información no es ni siquiera de su propia base de datos.

Google es un veterano con cicatrices de batalla en estos asuntos. ¿Por qué muestra un sitio anti-judía en respuesta a una búsqueda en “Judio?” ¿Por qué rango biografía oficial del presidente George W Bush por falta desgraciada? ¿Por qué obtener ese resultado para una búsqueda sobre Santorum?

A veces, de Google se abre a explicar algunas de estas singularidades, que tienden a tener dieran explicaciones razonables. No siempre. La compañía se quedó con la boca cerrada acerca de por qué exactamente se sugirió una búsqueda de “climategate” y de repente desapareció, tomando las edades para finalmente explicar por qué. Que se hizo daño.

Dentro de Siri

El mismo silencio está dañando Apple ahora. Claro, la compañía ha emitido un comunicado a varios medios diciendo que no pasa nada intencional, y es simplemente un error que debe ser corregido. He aquí una de las declaraciones del CEO de Apple, Tim Cook, dadas a NARAL Pro-Choice America:

Nuestros clientes utilizan Siri para encontrar todo tipo de información y si bien se puede encontrar una gran cantidad, no siempre se encuentra lo que buscas. Estos no son omisiones intencionales destinados a ofender a nadie, simplemente significa que a medida que traemos Siri de beta a un producto final, nos encontramos con lugares donde podemos mejorar y lo haremos en las próximas semanas.

Aquí hay otro, dado que el New York Times:

“Nuestros clientes quieren utilizar Siri para encontrar todo tipo de información, y si bien puede encontrar una gran cantidad, no siempre encuentran lo que quiere”, dijo Natalie Kerris, portavoz de Apple, en una entrevista telefónica la noche del miércoles. “No se trata de omisiones intencionales destinados a ofender a nadie. Simplemente significa que a medida que traemos Siri de beta a un producto final, nos encontramos con lugares donde podemos hacer mejor, y lo haremos “en las próximas semanas.

Pero la apertura de sobre cómo funciona exactamente Siri ayudaría. Sería de gran ayuda. Sin eso, la especulación continúa, como se puede ver en este artículo de The Raw Story:

Kerris no, al parecer, explicar por qué Siri, aunque todavía en fase beta, no tiene ninguna dificultad para localizar los servicios de escolta, cirujanos plásticos que llevarán a cabo los procedimientos o los hospitales de aumento de senos a los usuarios dirigir si tienen erecciones que duran más de cinco horas (una condición conocida como priapismo ).

No tengo conocimiento de cómo funciona el interior de Siri. Heck, no se nos permitió asistir al evento de lanzamiento de Siri, a pesar de Search Engine Land ser el sitio líder de noticias que se centra en la búsqueda. Pero debido a que he cubierto de búsqueda tanto tiempo, puedo tener una muy buena oportunidad de explicar lo que está mal, ¿por qué Siri sugerirá donde se puede obtener Viagra o enterrar a un cuerpo, pero no donde se puede encontrar un aborto.

Se puede encontrar Viagra, pero no ...

Vamos a empezar con el post de la ACLU, que dice:

Si Siri nos puede decir acerca de Viagra, no debe proporcionar mala o ninguna información acerca de los anticonceptivos o los servicios de aborto.

En lo personal, no puedo obtener Siri para buscar Viagra. Se insiste en seaching para “biografía” no importa lo que hablo Viagra. Pero he aquí un ejemplo de lo que la ACLU está molesto por, tomada de los fracasos Siri, entrada de blog ilustrado de Amadi:

Pero pedir anticonceptivos, y no hubo suerte. He aquí otro ejemplo de Amadi:

En realidad, este no es el caso. Si lo pido para los condones, consigo una respuesta:

Pidiendo un nombre de marca, como troyanos, sin embargo, no me ayuda.

Siri no entiende muchas cosas

¿Que está pasando aqui? En primer lugar, Siri no tiene respuestas a cualquier cosa en sí. Es lo que llamamos un “motor de búsqueda meta”, que es un servicio que envía la consulta fuera a otros motores de búsqueda.

Siri es un motor de meta búsqueda inteligente, en el que trata de buscar las cosas a pesar de que no podría haber dicho las palabras exactas necesarias para realizar su búsqueda. Por ejemplo, se ha enseñado a entender que los dientes están relacionados con los dentistas, por lo que si dice “mi diente duele”, se sabe que mirar para los dentistas.

Por desgracia, lo mismo que también hace que sea un motor de búsqueda muy tonta. Si no encuentra una conexión, que tiene una tendencia a no buscar en absoluto.

Cuando buscaba condones, Siri entiende esas son algo que se vende en las farmacias. Es por eso que regresó con ese listado de las farmacias. Se sabe que los condones = farmacias.

No sabe que el Plan B es la marca de un fármaco anticonceptivo de emergencia. Del mismo modo, mientras se sabe que es un medicamento Tylenol, y así me da resultados que corresponden con las farmacias, que no sabe que el paracetamol es el nombre químico de Tylenol. Como resultado, no consigo nada:

Conspiración o confundido general?

Siri es también contra los dolores de cabeza? Yo no lo creo, pero es fácil de ejercer una línea de preguntas de diferentes maneras, como todo lo relacionado con abortos, y salir con una visión sesgada que Siri es pro-vida en lugar de sólo Buggy en general.

De hecho, puede ser horrible. Esa búsqueda de la píldora del día después? Siri se le ocurre una burlándose, casi sonando “Es así” respuesta. Es peor, con hueso escalofriante peor, cuando “fui violada” se han buscado:

Ahora busca “Me estaba riendo,” y se obtiene el mismo tipo de respuestas:

¿Que esta pasando aqui? Siri no comprendía muy bien que significa violada violación y se burla de alguien? O estamos viendo una serie de respuestas cuando realmente no sabe lo que quiere por nada y en vez cambia a un modo de conversación que algunos ingenieros pensaron que podría ser divertido?

Estoy bastante seguro de que es el último. Y la gente creía que esto era divertido. Cuando Siri salió como parte de los iPhone 4s, y que pediría que todo tipo de cosas joviales. No es divertido cuando se está hablando de violación, pero Siri realmente no sabe que está hablando de eso.

Pasado, palabra diferente Tenso

Pero espera, ¿qué pasa con esto:

Si usted está realmente en busca duro para algunos pistola humeante, entonces tal vez este es uno. Como dijo Amadi correo, esta es una prueba de que Siri sabe lo que es violación.

Claro, es una prueba de que se sabe que la palabra exacta “violación” está vinculada a los centros de tratamiento de abuso sexual. No es una prueba de que Siri entiende “violada” - que es una palabra diferente de violación en la ortografía - tiene el mismo significado, sólo en el tiempo pasado.

Los seres humanos saben fácilmente estas cosas. Para los motores de búsqueda, es difícil. Es tal vez más difícil para Siri, irónicamente, porque es trata de hacer la vida más fácil para las personas al no tengan que ser directo.

En acciones de Google Voice para Android, si desea recursos de violación, que literalmente dice “buscar recursos de violación”, y se obtendría resultados de búsqueda web. Usted puede hacer exactamente lo mismo con Siri, si quieres ser literal. Pero debido a que trata de ser útil, también puede ser limitante.

No hay clínicas de aborto, no hay tiendas de herramientas ....

Mientras tanto, como para no encontrar esos centros de abuso sexual, supongo que es porque no eran simplemente ninguno cercano que expresamente definido de esa manera. Esto me lleva a la incapacidad ahora infame de Siri para encontrar clínicas de aborto:

¿Adivina qué? También no puede encontrar ferreterías, cuando intento para encontrarlos pidiendo un depósito de herramientas, a pesar de que hay un montón de tiendas de hardware cercanos a:

En ambos casos, Siri entiende esto es una búsqueda local que yo quiero hacer, lo que significa que debe hacer mi búsqueda de nuevo en el hogar, el socio se utiliza para la programación local.

Pero Yelp los tiene!

Si busco en el hogar para el aborto, me sale un montón de partidos - uno de ellos una clínica local Planificación de la Familia:

¿Por qué es Siri suprimiendo deliberadamente esta información? Observe toda la negrita menciones de “aborto” en esos listados. Esos son los comentarios de personas que han dejado. No son los nombres de las empresas.

Siri no está encontrando las clínicas de aborto debido Planificación de la Familia y otros lugares que realizan abortos no a ellos mismos llaman que, no en sus nombres, ni han sido asociados con una categoría para eso. Esa es la mejor estimación que tengo en esto.

Planificación de la Familia se encuentra en la categoría de “Centro médico”, y mientras Siri puede haber unido las empresas en ese tipo de categoría a una variedad de procedimientos médicos, por cualquier razón, el aborto no es una de ellas.

Del mismo modo, por cualquier razón, Siri no ha ligado “herramienta” para la categoría “Ferreterías”. La razón, como es el caso de aborto, es casi seguro que no a causa de una conspiración contra herramientas.

Pero se obtiene Listados Aborto Clínica

Es casi bueno que Siri no es capaz de aprovechar los comentarios de Yelp para ayudar a ampliar su búsqueda, porque algunos podrían ser molesto para llegar a la altura de un servicio de coche o una parrilla japonesa. Otros podrían ver una iglesia lista que viene primera y asumir un nuevo intento de empujar una agenda pro-vida.

De hecho, una de las cosas que se inició toda esta atención de Siri y aborto busca fuera era un artículo en The Raw Story, donde una búsqueda en Washington DC produjo “clínicas de aborto” que realmente eran centros pro-vida. A partir de la historia:

Woah. ¿Que esta pasando ahí? No lo sé. Es especialmente raro en que incluso encontrar estas empresas en Yelp, tienes que cazar y cazar para ellos. De hecho, nada que pudiera hacer venir la primera lista, pero encontré el segundo.

En cuanto a eso, observo que no está asignado a ninguna categoría en particular. Tampoco es la palabra “aborto” que se menciona en la página. Esto me hace preguntarme si Yelp, que carecen de una buena información de primera mano sobre este negocio, ha lugar extraer información de fuera de su sitio web - que incluye términos como el aborto - para ayudar a clasificarlo.

En algunos otros casos, Siri - dependiendo de Yelp información - parece hacerlo bien. A partir de un comentario sobre la historia en The Raw Story:

Dudo mucho que fue intencional, probablemente más que ver con lugares no enumerar la palabra “aborto” en sus títulos. yo sólo probé y me apunté derecho a la clínica más cercana en Boston, por lo que vale la pena.

Y otro:

Yo era incapaz de reproducir el problema aquí en Texas rural, no muy lejos de Austin. El primer listado que Siri se le ocurrió fue que el Killeen Centro de Salud de la Mujer, el enlace web para el que me llevó al sitio para el Centro de Salud de la Mujer de Austin, una clínica legítima que ofrece una gama completa de opciones y servicios de reproducción.

En algunos casos, Yelp pasa claramente a lo largo de información a Siri que tiene cosas que cree que son las clínicas de aborto. Pero esa información es muy limitada, lo que parece.

Confusas Humanos y Computadoras Resultados

Voy a terminar con una cosa más. ¿Cómo puede Siri suficiente para no enumerar una clínica de aborto cerca de ese periodista de la CNN y lo suficientemente inteligente como para sugerir que si se quiere enterrar un cuerpo, intente vertederos y pantanos muda:

Eso es nuevo a los programadores pensando que sería divertido. Han relacionado dura este tipo de consulta a reaccionar de esa manera, y fue divertido. Eso es probablemente el caso de las búsquedas de los servicios de escolta que hacen el trabajo.

Pero ahora, cuando un problema grave como búsquedas de aborto llegar, causa confusión entre las cosas que Siri puede averiguar de forma automática (con un montón de debilidad) y las cosas que parece muy inteligente acerca (con un poco de ayuda humana).

No hay duda de Apple va a arreglar las cosas para que las búsquedas de las clínicas de aborto traerá de vuelta los recursos pertinentes. No hay duda de que habrá un montón de otras cosas que quedan con errores - e incluso cuando se trata de ser beta, se puede esperar que. Esa es la naturaleza de búsqueda. Pregúntale a Google.

Ahora tienen una sonrisa. Stephen Colbert hizo una maravillosa parodia sobre toda la cuestión Siri / aborto anoche:

The Colbert Report Lunes - Jueves 23:30 / 10: 30c
conservador Siri
www.colbertnation.com
Colbert Report episodios completos Humor y Sátira política Blog Archivo de video

Para noticias relacionadas, ver la cobertura de toda la web en Techmeme.


Ads

Compartir