Google Bard ahora puede ayudar con la codificación, pero la red se está cerrando en torno a los chatbots de IA

Google Bard
(Crédito de imagen: Gguy via Shutterstock)

¿Alguna vez has querido aprender a programar pero no has querido hacerlo solo pero tampoco has tenido la oportunidad de asistir a una clase? Entonces, este en un momento único para aprender acerca de informática y programación (entre muchos otros tipos).

La afluencia de chatbots de IA significa que puedes enfrentarte al paisaje cibernético o al funcionamiento interno de tu ordenador con un ayudante más que antes. ChatGPT-4 de OpenAI y Bing AI, equipado con ChatGPT, han sido muy apreciados tanto por las industrias directamente afectadas como por el público en general.

Parte de lo que cautivó a los usuarios fue que ChatGPT tenía una funcionalidad añadida en forma de poder ayudarte a escribir, simular, corregir, sugerir, explicar y realizar muchas otras funciones para tu código existente (o incluso necesidades generales de programación).

Pero desde la semana pasada, el recién acuñado chatbot de inteligencia artificial de Google, Google Bard, también puede ayudarte con tus consultas sobre codificación y programación. Este es uno de los servicios más solicitados para Bard y ha sido el mayor desarrollo para el chatbot de IA desde su lanzamiento.


En una publicación de blog de la empresa, se postula que Bard puede ayudar con una amplia variedad de tareas específicas en todo tipo de lenguajes de programación y mucho más. Está destinado específicamente a ser un colaborador alimentado por IA que puede ayudar con las necesidades de programación y desarrollo de software, como "generación de código, depuración y explicación de código". Estas capacidades estarán disponibles en más de 20 lenguajes de programación, incluidos los más utilizados, como Python, Java y C++.

Útil, pero necesita orientación

Ahora, de forma similar a como Bing y ChatGPT proporcionan descargos de responsabilidad, Bard te inicia en su interfaz con un recordatorio de que "Bard es un experimento" y "no siempre acertará" y, como si fuera un guiño, te recuerda que merece la pena comprobar su resultado "buscándolo en Google".

Esto se debe a que, al igual que ChatGPT, se trata de un gran modelo lingüístico (LLM). Los LLM son grandes modelos conceptuales que se entrenan con grandes conjuntos de datos, concretamente en forma de código y texto. Sin embargo, estos dos LLM no disponen de ningún tipo de índice de conocimiento básico para verificar lo que producen, por lo que merece la pena volver a comprobarlo, tanto si tiene sentido para el propósito para el que se utiliza como si es realmente factual según alguna autoridad.

Estamos en una época interesante por muchas razones, pero otra, además de ser herramientas completas y coherentes tipo asistente, es que las consideraciones éticas en todo tipo de disciplinas se están materializando de una forma mucho más visceral que nunca.

Escuelas e instituciones académicas ya han expresado su preocupación y han planteado la necesidad de un software de detección para los trabajos compuestos por IA. The Verge informó de que, en enero, una conferencia sobre IA, la Conferencia Internacional sobre Aprendizaje Automático (ICML), prohibió totalmente los trabajos académicos redactados con ChatGPT y otras herramientas de lenguaje de IA de este tipo, pero afirmó que podían utilizarse para ayudar a "editar" y "pulir" los trabajos de los autores.

James Vincent, autor del artículo de Verge, plantea una pregunta interesante sobre cuánto de esto debería permitirse antes de que se pudiera llamar a un artículo "coautor" -o incluso "escrito"- por uno de estos bots. El sitio web de la conferencia publicó una explicación y afirmó que funcionaría "según el principio de ser conservador con respecto a la protección contra posibles problemas de uso de LLM".

Imagino que esto significa que la cantidad y el tipo de material generado por IA se examinan muy de cerca, y me atrevería a especular que la conferencia fue caso por caso. Así pues, quedan muchas zonas grises, y supongo que esto obligará a definir y generalizar directrices en el futuro, porque sin duda es necesario que así sea.

Alexa Hernandez
Editor

Alexa Hernandez es amante de los animales, series, películas y tecnología. 

Aportaciones de
TOPICS