Red Hat ha presentado en la conferencia Flock de Fedora a ramalama, un proyecto con el que pretende hacer que la utilización de la inteligencia artificial (IA) sea aburrida mediante el uso de contenedores OCI.
En la presentación de ramalama se ha explicado que, “en un campo dominado por innovaciones de vanguardia y soluciones complejas, el proyecto ramalama destaca por su misión refrescante y simple: ‘hacer que la IA sea aburrida’. Esta charla profundiza en la filosofía y funcionalidad de ramalama, una herramienta diseñada para simplificar la IA y el aprendizaje automático y que está orientada a una audiencia más amplia. Al adoptar lo ‘aburrido’ como una virtud, ramalama se enfoca en crear herramientas confiables, fáciles de usar y accesibles que simplemente funcionan sin fanfarrias”.
La facilidad de uso es uno de los principales objetivos de ramalama, abarcando “desde su sencillo proceso de instalación hasta sus comandos intuitivos para administrar e implementar modelos de IA. Ya sea que esté listando, extrayendo, ejecutando o sirviendo modelos, ramalama garantiza que la experiencia sea agradable y sin complicaciones, atendiendo a todos, desde entusiastas de la IA hasta usuarios ocasionales de tecnología”. Con ramalama se pretende que la instalación y la ejecución se haga con un solo comando para cada contexto. Además, se quiere suministrar modelos como artefactos OCI y entornos de ejecución en formato contenedor para tecnologías como ROCm, NVIDIA, Vulkan, etc.
El funcionamiento de ramalama sería sin daemon por defecto, siguiendo así la estela de otra tecnología procedente de Red Hat: Podman, y el objetivo es soportar de manera nativa procesadores gráficos (GPU) de NVIDIA, AMD, Intel, ARM, RISC-V y Apple Silicon, si bien por ahora la cosa parece limitada a x86_64. Los modelos son obtenidos del registro Ollama de manera predeterminada, mientras que llama.cpp acompañará a Podman como la otra gran pata tecnológica que sostendrá a ramalama.
El soporte para la tecnología de Apple no solo abarcaría el hardware, sino también el sistema operativo para escritorio: macOS. Obviamente, Linux también estará oficialmente soportado y en Windows posiblemente funcione a través de WSL. En caso de que el soporte para GPU no esté presente, ramalama pasaría a apoyarse en la CPU.
ramalama es un desarrollo que todavía se encuentra en una fase temprana, pero su código fuente ya está publicado en GitHub bajo la permisiva licencia MIT. Viendo donde ha sido presentado, lo lógico es pensar que iniciará su andadura en Fedora, una distribución que, además de servir de banco de pruebas para las tecnologías que serán incluidas en Red Hat Enterprise Linux, tiene a los desarrolladores como a uno de sus principales públicos objetivos. Si tiene éxito, y viendo el peso que tiene Fedora dentro del ecosistema de Linux, es muy probable que ramalama acabe adoptado o al menos soportado por el resto de las principales distribuciones.
La entrada Red Hat quiere hacer que el uso de la inteligencia artificial sea aburrido es original de MuyLinux