"생성형 AI는 좋은데"…소프트웨어 기술자 리더의 고민
"생성형 AI는 좋은데"…소프트웨어 기술자 리더의 고민
  • 최준 기자
  • 승인 2023.09.01 06:00
이 기사를 공유합니다

인재관리, 윤리적 책임 변화 인식 필요…판단력 요구하는 사람 중심 역할 중요
가트너 ‘소프트웨어 엔지니어링 리더의 책임을 변화시키는 생성형 AI’ 보고서
생성형 AI. 사진=언스플래시
생성형 AI. 사진=언스플래시

[이지경제=최준 기자] 인공지능(AI) 챗봇 등 다양한 IT기술이 개발되고 있는 가운데 2025년 소프트웨어 기술자 리더 역할에 대한 전망이 나왔다.   

시장조사기관 가트너는 최근 발표한 보고서를 통해 2025년 소프트웨어 엔지니어링 리더에 요구되는 역할의 절반 이상에 생성형 AI에 대한 관리 감독이 명시적으로 요구될 것이라고 예견했다.

이에 따르면 생성형 AI는 직무분석, 면접 내용 요약 등과 같은 채용 및 인사 업무의 속도를 높일 수 있다. 예를 들면 소프트웨어 엔지니어링 리더는 플랫폼 엔지니어링에 필요한 기술이나 경험 관련 키워드 및 핵심 문구를 요청하는 프롬프트를 입력해 업무 간소화가 가능하다.

이처럼 리더는 업무 간소화를 통해 사람 중심적 역할에 집중할 수 있는 시간을 확보할 수 있다. 지속적으로 엔지니어의 역량을 강화하고 적응력 높은 인력을 양성할 수 있다는 것이다.

또한 소프트웨어 엔지니어링 리더는 생성형 AI를 시범적으로 운영하면서 팀을 강화하고 얻을 수 있는 비즈니스 가치를 입증해야 한다. 이는 팀에 대한 지속적인 투자를 유지할 설득력 있는 비즈니스 사례가 되기 때문이다.

향후 리더는 팀과의 투명성을 유지해야 하며 AI 기술이 어떻게 직원을 대체할 것인지 보다는 어떻게 개발자의 생산성을 향상시킬 수 있는지에 초점을 맞춰야 한다.

하지만 생성형 AI의 윤리적 문제도 상존하고 있다. 기초적인 AI 모델을 사용하면 거짓이지만 사실처럼 보이는 콘텐츠, 편견과 같은 위험이 발생할 수 있다는 분석이다.

이에 대한 방안으로는 소프트웨어 엔지니어링 리더들이 AI 윤리 위원회와 협력하거나 직접 설립함으로써 설계 및 개발에 활용되는 생성형 AI의 책임감 있는 사용을 위한 정책 가이드라인을 구축해야 한다. 

리더들은 자체적으로 개발됐거나 공급업체로부터 구매된 모든 생성형 AI 제품의 윤리적 위험을 파악하고 완화하는 데 중요한 역할을 할 필요가 있다는 게 보고서 설명이다.

이에 대해 하리타 칸다바투는 가트너의 시니어 디렉터는 “생성형 AI가 소프트웨어 엔지니어링의 특정 측면을 자동화할 수는 있지만 창의성, 비판적 사고, 문제 해결 능력과 같이 인간이 가진 특징은 복제할 수 없다”면서 “인간의 판단 및 비판적 사고가 필요한 작업을 대체하기 위해선 생성형 AI를 사용하는 것은 삼가야 한다. 생성형AI가 일상적인 활동에서 최대 가치를 창출할 수 있는 사용 사례를 지속적으로 평가하는 것이 중요하다”고 조언했다.


최준 기자 news@ezyeconomy.com

관련기사

  • 서울특별시 서초구 동광로 88, 4F(방배동, 부운빌딩)
  • 대표전화 : 02-596-7733
  • 팩스 : 02-522-7166
  • 청소년보호책임자 : 최민이
  • ISSN 2636-0039
  • 제호 : 이지경제
  • 신문사 : 이지뉴스
  • 등록번호 : 서울특별시 아01237
  • 등록일 : 2010-05-13
  • 발행일 : 2010-05-13
  • 대표이사·발행인 : 이용범
  • 편집인 : 이용범, 최민이
  • 편집국장 : 김성수
  • 이지경제 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 이지경제. All rights reserved. mail to news@ezyeconomy.com
ND소프트