Página 1 dos resultados de 53 itens digitais encontrados em 0.021 segundos

A B Sé! : sistema para el aprendizaje de lectoescritura en braille

Castañeda Meziat, Silvia; Maldonado Camargo, Ernesto
Fonte: Pontifícia Universidade Javeriana Publicador: Pontifícia Universidade Javeriana
Tipo: bachelorThesis; Trabajo de Grado Formato: application/pdf
Relevância na Pesquisa
26.07%
Teniendo en cuenta la gran importancia que tiene para las personas invidentes el dominio de la lectura y escritura en braille como método de comunicación e información y herramienta que les permitirá tener una autonomía en la sociedad, se ve la posibilidad de intervenir en la metodología de aprendizaje del sistema Braille. El A B Sé! es un sistema electrónico que permite aprender los diferentes símbolos del sistema Braille de una forma lúdica por medio de una interfaz sencilla, utilizando elementos sensoriales como los sonidos y las texturas como refuerzo para la memoria y las metodologías de aprendizaje. Lo primero que se debe hacer para utilizar el A B S é!, después de encenderlo, es seleccionar si se desea aprender los símbolos para lectura o escritura, a continuación debe seleccionarse el tipo de actividad que desea entre -Aprender-, -Repasar- y -Jugar-. La función -Aprender- permite que el usuario aprenda por medio de la repetición, el A B Sé! dirá una letra y la secuencia numérica y sonora que el usuario debe repetir. La función -Repasar- permite que el usuario ponga a prueba su conocimiento, en esta función el A B Sé! dirá la letra, pero no la secuencia numérica o la sonora, en el caso de un error, el A B Sé! pedirá que se intente de nuevo y en esta ocasión si dará las secuencias correspondientes. En la función -Jugar- el A B Sé! permite que el usuario explore libremente las diferentes combinaciones posibles en el sistema Braille.

Control de oxigeno disuelto en un tanque de aireación de una planta piloto de lodos activados

Peña Guzmán, Carlos Andrés
Fonte: Pontifícia Universidade Javeriana Publicador: Pontifícia Universidade Javeriana
Formato: application/pdf
Relevância na Pesquisa
66.18%
Este documento se presenta una herramienta computacional para el control en un tanque de aireación de los lodos activados, el cual se basa en el concepto de aprendizaje por refuerzo, donde un agente recorre un ambiente desconocido y realizando acciones para alcanzar un objetivo especifico. El control se ejecuta, al buscar un caudal de aire inyectado a un reactor aeróbico y el caudal de recirculación de lodos, para obtener un sustrato inferior a 100 mg/| y las concentraciones del oxígeno disuelto esté entre 1 y 2 mg/| de OD. De esta implementación se encontró que se alcanzaron reducciones entre el 20 y 45 % de caudal de aire.; This paper presents a computational tool for control in an aeration tank of activated sludge, which is based on the concept of reinforcement learning, where an agent crosses an unknown environment and take action to achieve a specific objective. The control runs, searching injected air flow to the aerobic reactor and the sludge recirculation flow rate, a substrate for less than 100 mg / | and dissolved oxygen concentrations are between 1 and 2 mg / | OD . This implementation was found that reductions were achieved between 20 and 45% of air flow.

Las prácticas de evaluación en la materia de historia de 4º de la ESO en la Comunidad Autónoma de la Región de Murcia

Monteagudo Fernández, José
Fonte: Universidade de Múrcia Publicador: Universidade de Múrcia
Tipo: Tese de Doutorado Formato: application/pdf
SPA
Relevância na Pesquisa
26.15%
La evaluación posee una gran importancia dentro del mundo educativo, pues está en el núcleo del sistema didáctico, por lo que cualquier cambio en la evaluación conlleva cambios en otras partes del sistema. Desde una concepción actualizada, la evaluación aparece como un instrumento al servicio del proceso de enseñanza y aprendizaje, integrada en el quehacer diario del aula y del centro educativo. A partir de ella se toman decisiones que afectan a la intervención educativa, a la mejora del proceso y al establecimiento de medidas de refuerzo educativo o de adaptación curricular. El objetivo general ha sido averiguar, mediante datos empíricos, la naturaleza y las características de las evaluaciones que llevan a cabo los docentes de Geografía e Historia en 4.º curso de Educación Secundaria Obligatoria en la Comunidad Autónoma de la Región de Murcia. Se trata de un trabajo descriptivo de las prácticas evaluadoras llevado a cabo mediante una serie de cinco estudios relacionados entre sí con el fin de acercarnos a conocer el proceso de evaluación en la realidad de las aulas. Dichos estudios respondían al cumplimiento de objetivos específicos como el análisis del currículo educativo autonómico, el estudio de las programaciones docentes...

Planificación óptima de movimiento y aprendizaje por refuerzo en vehículos móviles autónomos

Gómez Plaza, Mariano
Fonte: Universidade de Alcalá Publicador: Universidade de Alcalá
Tipo: info:eu-repo/semantics/doctoralThesis; info:eu-repo/semantics/acceptedVersion Formato: application/pdf
SPA
Relevância na Pesquisa
66.36%
El presente trabajo de investigación se ha centrado en la propuesta de un algoritmo, capaz de realizar una planificación óptima de movimiento en vehículos móviles autónomos, pasándose en técnicas de control óptimo en lazo cerrado. Estos vehículos se caracterizan por estar dotados de cuatro ruedas, con dirección delantera y tracción delantera o trasera y, fundamentalmente, por ser sistemas dinámicos no lineales en los cuales la planificación de movimiento y su control, son tareas complejas, debido a que se trata de sistemas no-holonómicos. Todos los estudios llevados a cabo para la puesta en práctica de esta planificación óptima se han realizado considerando como base teórica los conceptos de aprendizaje por refuerzo y espacio de estados celular. El nuevo algoritmo propuesto tiene la peculiaridad de ser muy robusto ante posibles cambios en el entorno o en la estructura física o mecánica del propio vehículo, de manera que la generación del controlador óptimo vendrá dada, una vez que se haya ejecutado previamente una fase de aprendizaje por la que estos cambios se habrán tenido en cuenta de forma implícita por el algoritmo. El aprendizaje está orientado a alcanzar un objetivo de acuerdo a un criterio de optimización (p.e. tiempo mínimo). El vehículo aprende de su propia experiencia...

Aprendizaje por refuerzo en espacios de estados continuos

Fernández Rebollo, Fernando
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/doctoralThesis; info:eu-repo/semantics/doctoralThesis Formato: application/pdf; application/pdf
SPA; SPA
Relevância na Pesquisa
76.53%
El aprendizaje por refuerzo es un modelo de aprendizaje que permite implementar comportamientos inteligentes de forma automática. La mayor parte de la teoría del aprendizaje por refuerzo tiene su fundamento en la programación dinámica, y por tanto, en lo que se denominan funciones de valor. Sin embargo, la implementación tradicional de estas funciones en forma tabular no es práctica cuando el espacio de estados es muy grande, o incluso infinito. Cuando se produce esta situación, se deben aplicar métodos de generalización que permitan extrapolar la experiencia adquirida para un conjunto limitado de estados, a la totalidad del espacio. Existen dos aproximaciones básicas para resolver este problema. Por un lado, están aquellas técnicas que se basan en obtener una discretización adecuada del espacio de estados. Por otro lado, están los métodos basados en implementar las funciones de valor con algún método supervisado de aproximación de funciones, como, por ejemplo, una red de neuronas. En esta tesis doctoral se pretende desarrollar métodos de aprendizaje por refuerzo que sean aplicables en dominios con espacios de estados continuos, partiendo de las dos aproximaciones planteadas anteriormente, fundiendo las ventajas de una y otra en un método eficaz y eficiente que permita que el aprendizaje sea un proceso totalmente automático.; Reinforcement Learning is a technique that aliows to implement intelli gent behaviours automatically without the need of introducing knowledge or modeis about the domain. Most of the reinforcement learning theory is based on dynamic programming...

Adaptación dinámica al usuario en un sistema de enseñanza mediante aprendizaje por refuerzo

Iglesias Maqueda, Ana María
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Tese de Doutorado Formato: application/pdf
SPA
Relevância na Pesquisa
66.38%
Uno de los problemas más importantes de los sistemas de educación a distancia es personalizar la enseñanza a cada estudiante, adaptando su política pedagógica dependiendo de las necesidades de aprendizaje que tengan los estudiantes. Los Sistemas de Educación Adaptativos e Inteligentes en Web (del inglés Web-based Adaptive and Intelligent Educational Systems) (SEAIs en Web) son sistemas de educación basados en Internet donde se aplican técnicas de inteligencia artificial con el objetivo de adaptar el contenido del sistema a los estudiantes. Definir políticas pedagógicas efectivas en estos sistemas es uno de los principales problemas de los SEAIs en Web, decidiendo qué, cómo y cuándo mostrar el contenido del curso a los estudiantes. En el trabajo realizado en la presente tesis doctoral se propone definir el problema de soporte adaptativo a la navegación a través del contenido del sistema y de presentación de dicho contenido como un problema de Aprendizaje por Refuerzo. Al aplicar el modelo de aprendizaje por refuerzo en el módulo pedagógico del sistema, éste será capaz de aprender automáticamente la mejor política pedagógica para cada estudiante individualmente, basados únicamente en la experiencia adquirida con otros estudiantes de características de aprendizajes similares...

Sistema de toma de decisiones basado en emociones y autoaprendizaje para agentes sociales autónomos

Malfaz Vázquez, María de los Ángeles
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/doctoralThesis; info:eu-repo/semantics/doctoralThesis Formato: application/pdf
SPA; SPA
Relevância na Pesquisa
36.38%
El objetivo de esta tesis es desarrollar un sistema de toma de decisiones para un robot personal social y autónomo. Este sistema consiste en varios módulos: el módulo motivacional, el módulo de los drives y el módulo de valoración y selección de comportamientos. Estos módulos están basados en motivaciones, drives y emociones, conceptos que son ampliamente desarrollados en esta tesis. Debido a las dificultades de trabajar con un robot real, como primer paso en esta investigación, se ha optado por la implementación previa de esta arquitectura en agentes virtuales. Dichos agentes viven en un mundo virtual que ha sido construido utilizando un juego de rol basado en texto del tipo MUD (Multi User Domain). En este mundo los agentes interaccionan entre sí y con diferentes objetos. Se ha elegido este tipo de juegos basados en texto en lugar de otros más modernos con interfaces gráficas, porque la interpretación de la información es mucho más sencilla. La selección de los comportamientos es aprendida por el agente mediante la utilización de algoritmos de aprendizaje por refuerzo. Cuando el agente no interactúa con otros agentes utiliza el algoritmo Q-learning. Cuando existe interacción social el refuerzo que recibe el agente es debido a la acción conjunta con el otro agente y...

Two steps reinforcement learning en robocup-soccer keepaway

López-Bueno Hernández, Iván
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/bachelorThesis; info:eu-repo/semantics/masterThesis Formato: application/pdf
SPA
Relevância na Pesquisa
46.47%
Hay una gran variedad de problemas en los que es necesario o muy deseable que un sistema aprenda de forma automática cómo debe interactuar con el entorno que le rodea para así, ser eficiente, eficaz y autónomo con respecto a la tarea que debe desempeñar. Por ejemplo, un problema de estas características puede ser un robot explorador que parta de una ubicación base y tenga que recolectar todas las muestras de mineral posibles en un terreno desconocido, teniendo que volver al punto base por el camino más corto antes de que sus baterías se agoten. Las técnicas de aprendizaje por refuerzo permiten a un agente o sistema aprender cual es la mejor acción a ejecutar para llevar a cabo un objetivo cuando se encuentra en una situación determinada. Estas técnicas utilizan un enfoque en el que el agente es informado por el entorno acerca de si la última acción realizada fue buena o mala para conseguir el objetivo deseado. Esta información es proporcionada por el entorno en forma de señal, denominada señal de refuerzo y es empleada por el agente para aprender de forma eficiente un comportamiento que le permita llevar a cabo su objetivo de la mejor forma posible. Sin embargo, las técnicas de aprendizaje por refuerzo no son aplicables cuando el número de situaciones posibles o el número de acciones a tomar es excesivamente grande. En esos casos es necesario buscar alternativas de representación del conjunto de situaciones y acciones que simplifiquen los conjuntos y generalicen sus propiedades. En el presente documento se aborda el problema de la búsqueda de discretizaciones del espacio de estados que permitan una posterior aplicación de técnicas de aprendizaje por refuerzo sobre dichas discretizaciones. Se analizan y comparan distintas técnicas y se realiza una experimentación centrada en la técnica Two Steps Reinforcement Learning. El dominio utilizado como banco de pruebas de los experimentos realizados es el Robocup-soccer keepaway.

Implementación de un algoritmo de aprendizaje por refuerzo en una arquitectura multiagente cooperativa

Antón Collado, Adrián
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/bachelorThesis; info:eu-repo/semantics/masterThesis Formato: application/octet-stream; application/octet-stream; application/pdf
SPA
Relevância na Pesquisa
76.63%
La creciente importancia del fenómeno de la interacción entre sistemas informáticos ha modificado la forma tradicional de analizarlos y programarlos. La necesidad de interacción entre los componentes del sistema es cada vez más importante para poder realizar o resolver tareas conjuntas que de forma individual serían muy costosas o incluso imposibles de desarrollar. Los sistemas multiagente ofrecen una plataforma muy interesante y completa para la realización de estas tareas, pero además ofrecen la posibilidad de incluir en cada uno de los agentes un comportamiento dotado de una inteligencia que puede evolucionar gracias a técnicas de aprendizaje automático. Las técnicas de aprendizaje por refuerzo, encuadradas dentro del aprendizaje automático, son muy adecuadas para su uso junto con agentes debido a la integración con el entorno necesaria que implementa el agente, de la que aprenden las técnicas de aprendizaje por refuerzo, y a la ejecución de acciones sobre el entorno obtenidas por las técnicas de aprendizaje por refuerzo y llevadas a cabo por el agente. Sin embargo, el aprendizaje por refuerzo en sistemas multiagente ofrece nuevos retos derivados de la distribución del aprendizaje, como pueden ser la necesidad de la coordinación entre agentes o la distribución del conocimiento...

Bio-inspired decision making system for an autonomous social robot: the role of fear

Castro González, Álvaro
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Tese de Doutorado Formato: application/pdf
ENG
Relevância na Pesquisa
26.22%
Robotics is an emergent field which is currently in vogue. In the near future, many researchers anticipate the spread of robots coexisting with humans in the real world. This requires a considerable level of autonomy in robots. Moreover, in order to provide a proper interaction between robots and humans without technical knowledge, these robots must behave according to the social and cultural norms. This results in social robots with cognitive capabilities inspired by biological organisms such as humans or animals. The work presented in this dissertation tries to extend the autonomy of a social robot by implementing a biologically inspired decision making system which allows the robot to make its own decisions. Considering this kind of decision making system, the robot will not be considered as a slave any more, but as a partner. The decisionmaking systemis based on drives,motivations, emotions, and self-learning. According to psychological theories, drives are deficits of internal variables or needs (e.g. energy) and the urge to correct these deficits are the motivations (e.g. survival). Following a homeostatic approach, the goal of the robot is to satisfy its drives maintaining its necessities within an acceptable range, i.e. to keep the robot’s wellbeing as high as possible. The learning process provides the robot with the proper behaviors to cope with each motivation in order to achieve the goal. In this dissertation...

Aprendizaje por refuerzo para la toma de decisiones seguras en dominios con espacios de estados y acciones continuos

García Polo, Francisco Javier
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Tese de Doutorado Formato: application/pdf
SPA
Relevância na Pesquisa
96.66%
Los problemas de decisión constituyen uno de los campos m as fértiles para la aplicación de t ecnicas de Inteligencia Artificial (IA). Entre todas ellas, el Aprendizaje por Refuerzo ha surgido como un marco útil para el aprendizaje de políticas de comportamiento para la toma de decisiones a partir de la experiencia generada en entornos dinámicos y complejos. En Aprendizaje por Refuerzo, el agente interacciona con el entorno y una función de refuerzo se encarga de indicarle si está haciendo bien o mal la tarea que está aprendiendo. Gran parte del Aprendizaje por Refuerzo se fundamenta en las funciones de valor que proporcionan información acerca de la utilidad de encontrarse en un estado durante un proceso de toma de decisiones, o acerca de la utilidad de tomar una acción en un estado. Cuando se afrontan problemas donde los espacios de estados y acciones es muy grande o incluso continuo, la tradicional representación tabular de la función de valor no es práctica debido al alto coste que exigirá su almacenamiento y su cálculo. En estos casos, es necesaria la aplicación de técnicas de generalización que permitan obtener representaciones más compactas tanto del espacio de estados como del de acciones, de forma que se puedan aplicar eficientemente las técnicas de Aprendizaje por Refuerzo. Además de los espacios de estados y acciones continuos...

Una propuesta de adaptación dinámica al usuario en tutores inteligentes

Iglesias, Ana; Martínez, Paloma; Fernández, Fernando
Fonte: AIPO, Asociación Interacción Persona-Ordenador Publicador: AIPO, Asociación Interacción Persona-Ordenador
Tipo: info:eu-repo/semantics/acceptedVersion; info:eu-repo/semantics/conferenceObject Formato: application/pdf
Publicado em 08/05/2002 SPA
Relevância na Pesquisa
66.23%
Uno de los principales problemas en los Tutores Inteligentes (ITS: Intelligent Tutoring Systems) consiste en adaptarse a las necesidades del usuario con el que interactúa en cada instante. Para conseguir esta adaptación dinámica, el sistema ha de definir, entre otras cosas, la estrategia de enseñanza a seguir (secuencialidad del contenido, realimentación en la enseñanza, formato en el que se muestra el contenido, etc.) para cada interacción con el estudiante. En la bibliografía se pueden encontrar diversas técnicas de definición de estrategias pedagógicas (planificación, heurísticas, etc.), pero éstas suelen introducir problemas difíciles de resolver. En este artículo se propone definir el problema de los tutores inteligentes como un problema de aprendizaje por refuerzo (RL: Reinforcement Learning), de forma que el sistema aprende a enseñar de forma óptima a cada alumno basándose únicamente en la experiencia adquirida con otros alumnos con características de aprendizaje similares a las suyas.; [Actas de] INTERACCIÓN 2002: III Congreso Internacional de Interacción Persona-Ordenador, Leganés, 8-10 de Mayo de 2002

Aprendizaje por refuerzo seguro para enseñar a un robot humanoide a caminar más rápido

Acera Bolaños, Daniel
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: info:eu-repo/semantics/bachelorThesis; info:eu-repo/semantics/masterThesis
SPA
Relevância na Pesquisa
76.48%
Enseñar a un robot humanoide a caminar es un problema abierto y desafiante. Los comportamientos clásicos de caminar habitualmente requieren la puesta a punto de muchos parámetros de control (longitud de paso, velocidad, frecuencia, etc). Encontrar una configuración inicial o básica de estos parámetros no es complicado, pero optimizarla para un objetivo (por ejemplo, caminar rápido) no es tan sencillo, ya que puede hacer caer al robot humanoide provocando daños, en caso de una optimización incorrecta. En este proyecto, se propone usar técnicas de aprendizaje por refuerzo seguro para mejorar el comportamiento de caminar de un robot humanoide que permite caminar m as rápido que la configuración predefinida. El aprendizaje por refuerzo seguro asume la existencia de una política segura que permite aprender una nueva, la cual se representa con un enfoque basado en casos. Los algoritmos de aprendizaje por refuerzo seguro aplicados son PI-SRL (Policy Improvement throught Safe Reinforcement Learning) y PR-SRL (Policy Reuse for Safe Reinforcement Learning). ________; Teaching a humanoid robot to walk is an open and challenging problem. Classical walking behaviors usually require the tuning of many control parameters (step size...

Humanoid robot control of complex postural tasks based on learning from demostration

González-Fierro Palacios, Miguel
Fonte: Universidade Carlos III de Madrid Publicador: Universidade Carlos III de Madrid
Tipo: Tese de Doutorado
ENG
Relevância na Pesquisa
36.27%
This thesis addresses the problem of planning and controlling complex tasks in a humanoid robot from a postural point of view. It is motivated by the growth of robotics in our current society, where simple robots are being integrated. Its objective is to make an advancement in the development of complex behaviors in humanoid robots, in order to allow them to share our environment in the future. The work presents different contributions in the areas of humanoid robot postural control, behavior planning, non-linear control, learning from demonstration and reinforcement learning. First, as an introduction of the thesis, a group of methods and mathematical formulations are presented, describing concepts such as humanoid robot modelling, generation of locomotion trajectories and generation of whole-body trajectories. Next, the process of human learning is studied in order to develop a novel method of postural task transference between a human and a robot. It uses the demonstrated action goal as a metrics of comparison, which is codified using the reward associated to the task execution. As an evolution of the previous study, this process is generalized to a set of sequential behaviors, which are executed by the robot based on human demonstrations. Afterwards...

Diseño de un mecanismo de control de calidad de hidrocarburos transportados por un oleoducto bachado sin separación mecánica empleando redes neuronales

Lozano Ruiz, Sandra Liliana; López Bello, Cesar Amílcar, dir.
Fonte: Universidade La Sabana Publicador: Universidade La Sabana
Tipo: Tese de Doutorado
ES
Relevância na Pesquisa
45.95%
Debido al número de variables que pueden afectar el transporte por oleoductos, las metodologías existentes se quedan cortas para predecir algunos fenómenos del transporte por oleoductos, como por ejemplo, para tomar decisiones sobre los frentes de contaminación que se generan entre dos hidrocarburos diferentes que son transportados por un oleoducto sin separación física. La investigación comprende tres etapas fundamentales que son 1) la recolección y tratamiento de datos históricos, 2) desarrollo de un modelo que permita pronosticar calidad empleando redes neuronales y 3) un mecanismo de toma de decisiones mediante aprendizaje por refuerzo y determinar así la política óptima de punto de corte que maximice el valor de los crudos sin incurrir en reclamos por crudo fuera de especificación.

Aprendizaje espacial en el anfibio anuro Bufo arenarum. Estrategias, fenómenos y bases neurales; Spatial learning in the anuran amphibian Bufo arenarum. Strategies, phenomena and neural basis

Daneri, María Florencia
Fonte: Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires Publicador: Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Tipo: info:eu-repo/semantics/doctoralThesis; tesis doctoral; info:eu-repo/semantics/publishedVersion Formato: application/pdf
Publicado em //2010 SPA
Relevância na Pesquisa
36.12%
La presente tesis es un estudio de las estrategias, los fenómenos y las bases neurales del aprendizaje espacial en el sapo común Bufo arenarum. El análisis de las estrategias de aprendizaje espacial demuestra que estos animales son capaces de orientarse utilizando tanto una estrategia de guía (mediante el uso de claves visuales ambientales) como una estrategia de giro (tomando como referencia su propio cuerpo). Además, que esta última estrategia es la predominante si las claves ambientales brindan información contradictoria. También se pudo determinar la presencia de cuatro fenómenos del aprendizaje: el efecto de la distancia de la clave visual al refuerzo, el bloqueo y el ensombrecimiento entre claves y la inhibición latente. Estos fenómenos fueron ampliamente descriptos en otras clases de vertebrados, y por primera vez observados en anfibios en este trabajo. Al explorar las bases neurales de este tipo de aprendizaje, se pudo establecer el papel fundamental del pallium medial (área homóloga al hipocampo) para la orientación en el espacio, tanto mediante el uso de claves visuales como mediante el uso de la estrategia de giro. Estos resultados revelan que el hipocampo de los mamíferos y el pallium medial de los anfibios no tienen una equivalencia funcional completa.; This thesis is a study of the strategies...

Aprendizaje espacial en el anfibio anuro Bufo arenarum. Estrategias, fenómenos y bases neurales; Spatial learning in the anuran amphibian Bufo arenarum. Strategies, phenomena and neural basis

Daneri, María Florencia
Fonte: Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires Publicador: Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Tipo: Tesis Doctoral Formato: text; pdf
Publicado em //2010 ESPAñOL
Relevância na Pesquisa
36.12%
La presente tesis es un estudio de las estrategias, los fenómenos y las bases neurales del aprendizaje espacial en el sapo común Bufo arenarum. El análisis de las estrategias de aprendizaje espacial demuestra que estos animales son capaces de orientarse utilizando tanto una estrategia de guía (mediante el uso de claves visuales ambientales) como una estrategia de giro (tomando como referencia su propio cuerpo). Además, que esta última estrategia es la predominante si las claves ambientales brindan información contradictoria. También se pudo determinar la presencia de cuatro fenómenos del aprendizaje: el efecto de la distancia de la clave visual al refuerzo, el bloqueo y el ensombrecimiento entre claves y la inhibición latente. Estos fenómenos fueron ampliamente descriptos en otras clases de vertebrados, y por primera vez observados en anfibios en este trabajo. Al explorar las bases neurales de este tipo de aprendizaje, se pudo establecer el papel fundamental del pallium medial (área homóloga al hipocampo) para la orientación en el espacio, tanto mediante el uso de claves visuales como mediante el uso de la estrategia de giro. Estos resultados revelan que el hipocampo de los mamíferos y el pallium medial de los anfibios no tienen una equivalencia funcional completa.

Composición de estimulos en el aprendizaje causal humano

Soto Caro, Fabián
Fonte: Universidad de Chile Publicador: Universidad de Chile
Tipo: Tesis
ES
Relevância na Pesquisa
36.16%
Psicólogo; Esta investigación se inserta en el área de estudio del aprendizaje y ejecución de juicios de causalidad humanos. Su objetivo es estudiar los principios comúnmente utilizados por humanos para estructurar sus juicios de causalidad frente a eventos compuestos, cuyos elementos constituyentes han sido experimentados previamente, y de forma independiente, como claves causales. Según el principio de sumación contenido en los modelos elementísticos del aprendizaje asociativo el compuesto debería ser juzgado con mayor poder causal que cada uno de sus elementos por separado, mientras el principio de inhibición de los modelos configuracionales indica que el compuesto sería juzgado con un poder causal igual o menor a aquél de los elementos. Para cumplir el objetivo de investigación se hizo necesario evitar posibles efectos de techo en la medición de los juicios causales, disminuyendo los juicios frente a los elementos a valores menores que el máximo en la escala de medida. En el experimento 1 se disminuyeron los juicios causales entregados a las claves individuales mediante un entrenamiento con refuerzo parcial, y en el experimento 2 los puntajes entregados por los sujetos a las claves individuales se anclaron mediante instrucciones en un valor menor al máximo de la escala. Los resultados de ambos experimentos entregan evidencia de que los seres humanos utilizan un principio de sumación en las pruebas de composición de claves cuando se evitan efectivamente efectos de techo en la medición de los juicios. Estos resultados son discutidos en términos de las teorías elementísticas y configuracionales contemporáneas del aprendizaje asociativo...

Facilitación de la memoria por autoestimulación eléctrica intracraneal en ratas normales y con lesión cerebral

Redolar Ripoll, Diego
Fonte: Bellaterra : Universitat Autònoma de Barcelona, Publicador: Bellaterra : Universitat Autònoma de Barcelona,
Tipo: Tesis i dissertacions electròniques; info:eu-repo/semantics/doctoralThesis Formato: application/pdf; application/pdf; application/pdf; application/pdf; application/pdf; application/pdf
Publicado em //2004 SPA; SPA
Relevância na Pesquisa
26.34%
Consultable des del TDX; Títol obtingut de la portada digitalitzada; La estimulación eléctrica intracraneal (AEIC) del hipotálamo lateral (HL), en el haz prosencefálico medial (HPM), facilita los procesos de aprendizaje y memoria en una amplia variedad de paradigmas tanto en ratas jóvenes como en viejas. Algunos datos apoyan la idea de que el efecto de la AEIC del HL parece estar relacionado con las propiedades arousalizantes del sistema de refuerzo del HPM. La memoria es un proceso activo y complejo que implica diferentes estadios, como la adquisición de la información a través de los sentidos que constituye necesariamente el primer paso, la cual es seguida por el proceso de consolidación, que conlleva a su estabilización de forma gradual, y la recuperación que reactiva las memorias almacenadas para que puedan ser usadas como guía de la conducta. Se ha podido demostrar que diversos tratamientos activadores han demostrado una dependencia temporal de sus efectos facilitativos sobre diferentes estadios de los procesos de aprendizaje y memoria. Para evaluar los posibles efectos diferenciales de la AEIC del HL sobre la consolidación y la recuperación de la información se entrenaron grupos independientes de ratas Wistar en una sesión (30 ó 50 ensayos) de la tarea de EV2 (sesión de adquisición). Inmediatamente después de esta sesión de entrenamiento...

MODELO DE APOYO A LA COMERCIALIZACI ÓN DE ELECTRICIDAD USANDO LÓGICA DIFUSA Y APRENDIZAJE DE MÁQUINA

MORENO,JULIAN; OVALLE,DEMETRIO
Fonte: DYNA Publicador: DYNA
Tipo: Artigo de Revista Científica Formato: text/html
Publicado em 01/09/2009 ES
Relevância na Pesquisa
56.06%
El trabajo que se describe en este artículo explora la posibilidad de emplear un modelo basado en la lógica difusa y en el aprendizaje de máquina para que los agentes comercializadores del mercado eléctrico Colombiano, o de alguno con características similares, maximicen sus utilidades de acuerdo a su perfil de riesgo. El modelo consta de dos partes, la primera es un sistema experto difuso que les brinda a estos agentes una recomendación respecto a la estrategia comercial que deben emplear, y cuya definición depende principalmente de las condiciones del mercado. La segunda es un mecanismo de aprendizaje por refuerzo con el que los agentes “aprenden” a medida que perciben las consecuencias que sus acciones les acarrean, de manera que las modifican esperando obtener una recompensa no solo en el corto sino también en el largo plazo.