Les robots militaires existent et sont de plus en plus utilisés sur différents théâtres d’opérations et dans les différents milieux : air (drones), mer, terre… Leur marché est en forte croissance. Ils sont employés pour l’observation, la reconnaissance, le déminage, voire le tir. Ces robots posent cependant des problèmes d’éthique importants et originaux par rapport aux autres armements, surtout lorsqu’ils sont dotés d’une grande autonomie (d’action), y compris pour l’ouverture du feu. Leur complexité peut conduire à une certaine imprévisibilité (« bavures »). Leur facilité d’emploi, associée à une certaine « invulnérabilité » du servant liée à l’éloignement, peut entraîner des excès de violence. Aussi est-il essentiel de bien maîtriser la mise en œuvre de ces robots, à tous les niveaux, depuis la décision politique de développement de l’arme jusqu’à l’utilisation opérationnelle. Il y va de la responsabilité des différents acteurs et les aspects juridiques sont importants. Pour l’instant, la « responsabilité » du robot lui-même est considérée comme inexistante, mais l’idée que l’on s’en fait pourrait être amenée à évoluer. En effet, ce robot militaire n’est-il pas déjà doté, en apparence, d’une certaine « conscience » ? Des fonctionnalités de la conscience humaine sont déjà présentes chez lui. Certaines méritent d’être développées, d’autres pourraient être introduites ou au contraire évitées. Des méthodes commencent à voir le jour pour améliorer la « conscience » (y compris « morale » ?) du robot.