Saltar al contenido principal
LibreTexts Español

12.3: Representación computacional del conocimiento

  • Page ID
    146626
    • Wikipedia
    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La representación computacional del conocimiento se refiere a cómo se puede representar simbólicamente el conocimiento y cómo se puede manipular de manera automatizada. Casi todas las teorías antes mencionadas evolucionaron en simbiosis con la informática. Por un lado, la informática utiliza el cerebro humano como inspiración para los sistemas computacionales, por otro lado, se utilizan modelos artificiales para profundizar en nuestra comprensión de las bases biológicas de la representación del conocimiento.

    La representación del conocimiento está conectada a muchos otros campos relacionados con el procesamiento de la información, por ejemplo, la lógica, la lingüística, el razonamiento y los aspectos filosóficos de estos campos. En particular, es uno de los temas cruciales de la Inteligencia Artificial, ya que trata de la codificación, almacenamiento y uso de información para modelos computacionales de cognición.

    Hay tres puntos principales que deben abordarse con respecto a la representación computacional del conocimiento: El proceso, los formalismos y las aplicaciones de la ingeniería del conocimiento.

    Ingeniería del Conocimiento

    El proceso de desarrollo de sistemas computacionales basados en el conocimiento se llama ingeniería del conocimiento. Este proceso implica evaluar el problema, desarrollar una estructura para la base de conocimiento e implementar el conocimiento real en la base de conocimiento. La tarea principal de los ingenieros del conocimiento es identificar un vocabulario conceptual apropiado.

    Existen diferentes tipos de conocimiento, por ejemplo reglas de juegos, atributos de objetos y relaciones temporales, y cada tipo se expresa mejor por su propio vocabulario específico. Los vocabularios conceptuales relacionados que son capaces de describir objetos y sus relaciones se denominan ontologías. Estos vocabularios conceptuales son altamente formales y cada uno es capaz de expresar significado en campos específicos del conocimiento. Se utilizan para consultas y aseveraciones a bases de conocimiento y hacen posible el intercambio de conocimientos. Para representar diferentes tipos de conocimiento en un solo marco, Jerry Hobbs (1985) propuso el principio de promiscuidad ontológica. Por lo tanto, se mezclan varias ontologías para cubrir una gama de diferentes tipos de conocimiento.

    Una consulta a un sistema que represente el conocimiento sobre un mundo hecho de elementos cotidianos y que pueda realizar acciones en este mundo puede verse así: “¡Toma el cubo de la mesa!”. Esta consulta podría procesarse de la siguiente manera: Primero, dado que vivimos en un mundo temporal, la acción necesita ser procesada de una manera que pueda desglosarse en pasos sucesivos. En segundo lugar, hacemos declaraciones generales sobre las reglas para nuestro sistema, por ejemplo, que las fuerzas gravitacionales tienen cierto efecto. Por último, probamos la cadena de tareas que hay que hacer para sacar el cubo de la mesa. 1) Alcanzar el cubo con la mano, 2) agarrarlo, 3) levantar la mano con el cubo, etc. El razonamiento lógico es la herramienta perfecta para esta tarea, porque un sistema lógico también puede reconocer si la tarea es posible en absoluto.

    Existe un problema con el procedimiento descrito anteriormente. Se llama el problema del marco. El sistema en el ejemplo trata de estados cambiantes. Las acciones que se llevan a cabo cambian el entorno. Es decir, el cubo cambia de lugar. Sin embargo, el sistema no hace ninguna proposición sobre la mesa hasta el momento. Tenemos que asegurarnos, que después de recoger el cubo de la mesa, la mesa no cambie su estado. No debe desaparecer ni descomponerse. Esto podría suceder, ya que la mesa ya no es necesaria. El sistema dice que el cubo está en la mano y omite cualquier información sobre la tabla. Para abordar el Problema del Marco hay que exponer algunos axiomas especiales o cosas similares. El problema del marco no se ha resuelto por completo. Existen diferentes enfoques para una resolución. Algunos agregan límites espaciales y temporales de objetos al sistema/mundo (Hayes 1985). Otros intentan modelar más directo. Hacen transformaciones en las descripciones de los estados. Por ejemplo: Antes de la transformación el cubo está sobre la mesa, después de la transformación, la tabla aún existe, pero independiente del cubo.

    Formalismos de Representación del Conocimiento

    El tipo de formalismo de representación del conocimiento determina cómo se almacena la información. La mayoría de las aplicaciones de representación del conocimiento se desarrollan para un propósito específico, por ejemplo, un mapa digital para la navegación por robots o un gráfico como cuenta de eventos para visualizar historias.

    Cada formalismos de representación del conocimiento necesita un estricto procedimiento de sintaxis, semántica e inferencia para ser claros y computables. La mayoría de los formalismos tienen los siguientes atributos para poder expresar información con mayor claridad: El Enfoque de Red Semántica, jerarquías de conceptos (por ejemplo, vehículo -> automóvil -> camión) y herencia patrimonial (por ejemplo, los autos rojos tienen cuatro ruedas ya que los autos tienen cuatro ruedas). Hay atributos que brindan la posibilidad de agregar nueva información al sistema sin crear inconsistencias, y la posibilidad de crear una suposición de “mundo cerrado”. Por ejemplo, si se omite la información de que tenemos gravitación en la tierra, la suposición de mundo cerrado debe ser falsa para nuestra tierra/mundo.

    Un problema para los formalismos de representación del conocimiento es que el poder expresivo y el razonamiento deductivo son mutuamente excluyentes. Si un formalismo tiene un gran poder expresivo, es capaz de describir una amplia gama de información (diferente), pero no es capaz de hacer inferencias brillantes a partir de datos (dados). La lógica proposicional está restringida a las cláusulas Horn. Una cláusula Horn es una disyunción de literales con como máximo un literal positivo. Tiene un muy buen procedimiento de decisión (inferir), pero no puede expresar generalizaciones. Un ejemplo se da en el lenguaje de programación lógica Prolog. Si un formalismo tiene una gran complejidad deductiva, es capaz de hacer inferencias brillantes, es decir, sacar conclusiones, pero tiene un rango pobre de lo que puede describir. Un ejemplo es la lógica de segundo orden. Entonces, el formalismo tiene que ser adaptado a la aplicación del sistema KR. Esto se alcanza mediante compromisos entre expresividad y complejidad deductiva. Para obtener un mayor poder deductivo se sacrifica la expresividad y viceversa.

    Con el crecimiento del campo de las bases de conocimiento, se han desarrollado muchos estándares diferentes. Todos ellos tienen diferentes restricciones sintácticas. Para permitir la intertraducción, se han creado diferentes formalismos de “intercambio”. Un ejemplo es el formato de intercambio de conocimientos que es básicamente teoría de conjuntos de primer orden más LISP (Genesereth et al. 1992).

    Aplicaciones de la Representación del Conocimiento

    La representación computacional del conocimiento no se utiliza principalmente como modelo de cognición sino para hacer accesibles los pools de información, es decir, como una extensión de la tecnología de bases de datos. En estos casos no se necesitan reglas y modelos generales. Con los medios de almacenamiento en crecimiento, uno es capaz de crear bases de conocimiento simples que indiquen todos los hechos específicos. La información se almacena en forma de conocimiento sentencial, es decir, conocimiento guardado en forma de oraciones comparables a proposiciones y código de programa. El conocimiento es visto como un reservorio de información útil y no como un modelo de actividad cognitiva. Más recientemente, el aumento del tamaño de la memoria disponible ha hecho factible el uso de representaciones “intensivas en computación” que simplemente enumeran todos los hechos particulares en lugar de establecer reglas generales. Estos permiten el uso de técnicas estadísticas como la simulación de Markov, pero parecen abandonar cualquier reclamo de plausibilidad psicológica.

    Inteligencia Artificial

    La inteligencia artificial o inteligencia agregada a un sistema que puede organizarse en un contexto científico o Inteligencia Artificial (inglés: Inteligencia artificial o simplemente abreviada AI) se define como la inteligencia de una entidad científica. Este sistema generalmente se considera una computadora. La inteligencia se crea e incorpora a una máquina (computadora) para poder hacer el trabajo como los seres humanos pueden. Varios tipos de campos que utilizan inteligencia artificial incluyen sistemas expertos, juegos de computadora (juegos), lógica difusa, redes neuronales artificiales y robótica. Muchas cosas parecen difíciles para la inteligencia humana, pero para la Informática es relativamente poco problemática. Por ejemplo: transformar ecuaciones, resolver ecuaciones integrales, hacer juegos de ajedrez o Backgammon. Por otro lado, las cosas que para los humanos parecen exigir un poco de inteligencia, hasta ahora siguen siendo difíciles de realizar en Informática. Por ejemplo: Object/Face Introduction, jugando futbol.

    Aunque la IA tiene una fuerte connotación de ciencia ficción, la IA forma una rama muy importante de la informática, que se ocupa del comportamiento, el aprendizaje y la adaptación inteligente en una máquina. La investigación en IA implica la fabricación de máquinas para automatizar tareas que requieren un comportamiento inteligente. Los ejemplos incluyen control, planificación y programación, la capacidad de responder diagnósticos y preguntas de los clientes, así como reconocimiento de escritura a mano, voz y rostro. Tales cosas se han convertido en disciplinas separadas, que se centran en brindar soluciones a problemas de la vida real. El sistema de IA ahora se usa a menudo en los campos de la economía, la medicina, la ingeniería y el ejército, ya que se ha construido en varias aplicaciones de software de computadora doméstica y videojuegos. Esta 'inteligencia artificial' no sólo quiere entender qué es un sistema de inteligencia, sino que también lo construye. No existe una definición satisfactoria para 'inteligencia': 1. inteligencia: la capacidad de adquirir conocimiento y usarlo 2. o la inteligencia es lo que se mide con una 'Prueba de Inteligencia'

    En términos generales, la IA se divide en dos nociones a saber, IA Convencional e Inteligencia Computacional (CI, Inteligencia Computacional). La IA convencional involucra principalmente métodos ahora clasificados como aprendizaje automático, los cuales se caracterizan por el formalismo y el análisis estadístico. También conocida como IA simbólica, IA lógica, IA pura y GOFAI, Good Old Fashioned Artificial Intelligence. Los métodos incluyen: 1. Sistema experto: aplicar la capacidad de consideración para llegar a conclusiones. Un sistema experto puede procesar una gran cantidad de información que se conoce y proporciona conclusiones basadas en esta información. 2. Consideraciones basadas en casos 3. Red Bayesiana 4. IA basada en el comportamiento: un método modular para establecer manualmente sistemas de IA La inteligencia computacional implica desarrollo iterativo o aprendizaje (por ejemplo, ajuste de parámetros como en sistemas coneccionistas. Este aprendizaje se basa en datos empíricos y se asocia con IA no simbólica, IA irregular y cálculos blandos. Los principales métodos incluyen: 1. Red Neural: un sistema con capacidades de reconocimiento de patrones muy fuertes 2. Sistemas difusos: técnicas para su consideración bajo incertidumbre, han sido ampliamente utilizadas en la industria moderna y en los sistemas de control de productos de consumo. 3. Computación evolutiva: aplicando conceptos de inspiración biológica como población, mutación y “supervivencia del más apto” para producir una mejor resolución de problemas. Estos métodos se dividen principalmente en algoritmos evolutivos (por ejemplo, algoritmos genéticos) e inteligencia de grupo (por ejemplo, algoritmos de hormiga) Con un sistema inteligente híbrido, se realizaron experimentos para combinar estos dos grupos. Las reglas de inferencia de expertos se pueden generar a través de redes neuronales o reglas de producción a partir del aprendizaje estadístico como en ACT-R. Un nuevo enfoque prometedor establece que el fortalecimiento de la inteligencia trata de lograr la inteligencia artificial en el proceso de desarrollo evolutivo como un efecto secundario del fortalecimiento de la inteligencia humana a través de la tecnología.

    Historia de la inteligencia artificial A principios del siglo XVII, René Descartes argumentó que el cuerpo de un animal no era más que máquinas complicadas. Blaise Pascal inventó la primera máquina de cálculo digital mecánico en 1642. A los 19 años, Charles Babbage y Ada Lovelace trabajaron en calculadoras mecánicas programables. Bertrand Russell y Alfred North Whitehead publicaron Principia Mathematica, que revisó la lógica formal. Warren McCulloch y Walter Pitts publicaron “Cálculo lógico de ideas que permanecen en actividades” en 1943 que sentó las bases para las redes neuronales. La década de 1950 fue un periodo de esfuerzo activo en IA. El primer programa de IA en trabajar fue escrito en 1951 para ejecutar el motor Ferranti Mark I en la Universidad de Manchester (Reino Unido): un programa de juego de guiones escrito por Christopher Strachey y un programa de juego de ajedrez escrito por Dietrich Prinz. John McCarthy hizo el término “inteligencia artificial” en la primera conferencia prevista para este número, en 1956. También descubrió el lenguaje de programación Lisp. Alan Turingmemper introdujo la “prueba de Turing” como una forma de operacionalizar pruebas de comportamiento inteligente. Joseph Weizenbaum construyó ELIZA, un chatterbot que aplica la psicoterapia Rogerian. Durante las décadas de 1960 y 1970, Joel Moses demostró el poder de las consideraciones simbólicas para integrar problemas en el programa Macsyma, un programa basado en el conocimiento que primero tuvo éxito en el campo de las matemáticas. Marvin Minsky y Seymour Papert publicaron Perceptrons, que demostró límites simples de redes neuronales y Alain Colmerauer desarrolló el lenguaje informático Prólogo. Ted Shortliffe demuestra el poder de un sistema basado en reglas para la representación del conocimiento y la inferencia en el diagnóstico y la terapia médica que a veces se conoce como el primer sistema experto. Hans Moravec desarrolló el primer vehículo controlado por computadora para lidiar con la carretera enredada y estrellada de forma independiente. En la década de 1980, las redes neuronales se utilizaron ampliamente con el algoritmo de propagación inversa, explicado por primera vez por Paul John Werbos en 1974. En 1982, físicos como Hopfield utilizaron técnicas estadísticas para analizar las propiedades de almacenamiento y la optimización de redes nerviosas. Los psicólogos, David Rumelhart y Geoff Hinton, continúan su investigación sobre modelos de redes neuronales en la memoria. En 1985 al menos cuatro grupos de investigación redescubrieron el algoritmo de aprendizaje Back-Propagation. Este algoritmo se implementa con éxito en ciencias de la computación y psicología. La década de 1990 marcó grandes ganancias en diversos campos de la IA y demostraciones de diversas aplicaciones. Más específicamente Deep Blue, un juego de computadora de ajedrez, derrotó a Garry Kasparov en un conocido juego de match 6 en 1997. DARPA afirmó que los costos ahorrados al aplicar el método de IA para programar unidades en la primera Guerra del Golfo habían reemplazado toda la inversión en investigación de IA desde 1950 al gobierno de Estados Unidos. El gran reto de DARPA, que comenzó en 2004 y continúa hasta nuestros días, es una carrera por un premio de 2 millones de dólares donde los vehículos son conducidos por sí mismos sin comunicación con los humanos, utilizando GPS, computadoras y sensores sofisticados, a través de varios cientos de kilómetros de desafiantes zonas desérticas.


    This page titled 12.3: Representación computacional del conocimiento is shared under a CC BY-SA 3.0 license and was authored, remixed, and/or curated by Wikipedia via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.